JP2020197927A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2020197927A
JP2020197927A JP2019103846A JP2019103846A JP2020197927A JP 2020197927 A JP2020197927 A JP 2020197927A JP 2019103846 A JP2019103846 A JP 2019103846A JP 2019103846 A JP2019103846 A JP 2019103846A JP 2020197927 A JP2020197927 A JP 2020197927A
Authority
JP
Japan
Prior art keywords
image data
priority
virtual viewpoint
cameras
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019103846A
Other languages
English (en)
Other versions
JP7408298B2 (ja
Inventor
大地 阿達
Taichi Adachi
大地 阿達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019103846A priority Critical patent/JP7408298B2/ja
Priority to US16/887,249 priority patent/US11308679B2/en
Publication of JP2020197927A publication Critical patent/JP2020197927A/ja
Priority to US17/701,107 priority patent/US12112419B2/en
Application granted granted Critical
Publication of JP7408298B2 publication Critical patent/JP7408298B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】仮想視点画像データにおける所定のオブジェクトの視認性の低下を抑制すること。【解決手段】複数のカメラを用いた同期撮影により取得された複数視点画像データから仮想視点画像データを生成する画像処理装置であって、複数のカメラの配置情報、所定のオブジェクトの視野角情報、仮想視点画像データを生成するための仮想視点情報を取得する取得手段と、配置情報及び視野角情報に基づき、複数のカメラの各々の優先度を算出する算出手段と、仮想視点画像データを生成する生成手段と、を備え、生成手段は、所定のオブジェクトのレンダリングを行うために、複数視点画像データを構成する複数のカメラそれぞれに対応する撮影画像データのうちの所定のオブジェクトを含む撮影画像データについては、優先度の高いカメラから得られた撮影画像データから優先的に使用することを特徴とする。【選択図】図1

Description

本開示の技術は、複数の撮影画像データを用いて仮想視点画像データを生成する技術に関する。
昨今、複数のカメラを異なる位置に設置し、それら複数のカメラで複数視点から同期撮影して得られた複数の撮影画像データ(複数視点画像データ)を用いて仮想視点からの見えを表す仮想視点画像データを生成する技術が注目されている。このような技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することができるため、通常の画像と比較してユーザに高い臨場感を与えることが出来る。
特許文献1には、複数のカメラから得られた撮影画像データからオブジェクト(被写体)の3次元モデル(3次元形状データ)を導出し、その3次元モデルに撮影画像データを用いてレンダリングすることで仮想視点画像データを生成する方法が開示されている。
特開2017−212592号公報
しかしながら、従来の方法で仮想視点画像データを生成した場合に、次の課題があった。例えば撮影対象となるフィールド周辺に設置される電子看板には、LEDディスプレイなど、表示面に指向性の高い光源を用いた表示装置が使用される場合がある。また、自ら光を発しないが、反射光が高い指向性を持つような表面を有するオブジェクトが撮影領域に存在する場合がある。こうした視野角の制限が強い面を有するオブジェクトに対し、その視野角の外側に位置するカメラから得られた撮影画像データを主に用いて仮想視点画像データを生成した場合、次のような課題があった。すなわち、そのような場合、仮想視点画像データにおける当該オブジェクトの表示面や表面が暗く描画され視認性が低下するという課題があった。
そのため本開示の技術は、仮想視点画像データにおける所定のオブジェクトの視認性の低下を抑制することを目的とする。
本開示の技術は、複数のカメラを用いた同期撮影により取得された複数視点画像データから仮想視点画像データを生成する画像処理装置であって、前記複数のカメラの配置情報を取得する第1の取得手段と、前記複数視点画像データに含まれるオブジェクトのうち、所定のオブジェクトの視野角情報を取得する第2の取得手段と、前記仮想視点画像データを生成するための仮想視点情報を取得する第3の取得手段と、前記配置情報及び前記視野角情報に基づき、前記複数のカメラの各々の優先度を算出する算出手段と、前記複数視点画像データ、前記複数視点画像データから生成された各オブジェクトの3次元形状データ、及び前記仮想視点情報に基づき、前記仮想視点画像データを生成する生成手段と、を備え、前記生成手段は、前記所定のオブジェクトのレンダリングを行うために、前記複数視点画像データを構成する前記複数のカメラそれぞれに対応する撮影画像データのうちの前記所定のオブジェクトを含む撮影画像データについては、前記優先度の高いカメラから得られた撮影画像データから優先的に使用することを特徴とする画像処理装置。
本開示の技術によれば、仮想視点画像データにおける所定のオブジェクトの視認性の低下を抑制することができる。
実施形態1におけるシステム構成図である。 実施形態1におけるハードウェア構成図である。 実施形態1における画像生成装置の処理フローを示す図である。 実施形態1におけるカメラ配置を示す図である。 実施形態1におけるカメラの撮影画像例である。 実施形態1における本発明の適用の有無による仮想視点画像を比較した図である。 実施形態2におけるシステム構成図である。 実施形態2における画像生成装置の処理フローを示す図である。 実施形態2におけるカメラ毎の優先度を示す図である。 実施形態3におけるLEDディスプレイの配光特性を示す図である。 実施形態3におけるカメラ毎の優先度を示す図である。 実施形態4におけるLEDディスプレイの輝度のヒストグラムを示す図である。
[実施形態1]
本実施形態では、サッカースタジアムに複数のカメラを設置し、それら複数のカメラによる撮影により得られた複数の撮影画像データを用いて仮想視点画像データを生成するシステムについて述べる。さらに、フィールド上のLEDディスプレイの法線方向とカメラ配置情報(カメラの位置および方向に関する情報)に基づいて仮想視点画像データを生成する方法について説明する。
図1に、仮想視点画像を生成するシステム構成を示す。複数のカメラ110は、フィールド上のオブジェクトを多視点から撮影するように設置され、ネットワークを介してカメラ配置情報および撮影画像データをサーバ130へ送信する。なお、複数のカメラ110は同一符号を用いて説明するが、性能や機種が異なっていてもよい。
サーバ130は、複数のカメラ110から受信したカメラ配置情報および撮影画像データを用いてカメラ110のキャリブレーションを行い、キャリブレーション後のカメラ配置情報を不図示の記憶部に記憶する。
また、サーバ130は、複数のカメラ110から受信した撮影画像データとカメラ配置情報を用いて、前景オブジェクト(プレーヤーやボール)を抽出する。そしてサーバ130は、ステレオ計測の原理から抽出した前景オブジェクトの3次元モデル(3次元形状データ)を生成し、不図示の記憶部に記憶する。
また、サーバ130は、レーザースキャナの計測により得られる背景オブジェクト(サッカースタジアム、フィールド、LEDディスプレイ、サッカーゴールなど)の3次元モデルを不図示の記憶部に予め記憶する。このとき、LEDディスプレイなど、指向性の高い光を発する、視野角の制限が強い所定のオブジェクトの3次元モデルには、後述する視野角情報を関連付けてさらに記憶する。なお、本開示において視野角とは、物体表面に正対したときのその物体表面の見えを基準としたとき、その基準とする見えが維持される、物体表面上の正対した位置での法線方向と視線方向とのなす角度である。
コントローラ120は、ユーザの操作に基づき仮想視点の位置、姿勢、焦点距離を指定する仮想視点情報を生成するためのUIである。またコントローラ120は、画像処理装置200とネットワークを介して接続され、生成した仮想視点情報を画像処理装置200中のレンダリング部250に送信する。
画像処理装置200は、後述するCPU201がプログラムを実行することにより、カメラ配置情報取得部210、視野角情報取得部220、仮想視点情報取得部230、優先度算出部240、レンダリング部250の各機能構成部を実現する。また画像処理装置200は、コントローラ120、サーバ130、及び表示装置300とネットワークを介して接続している。
カメラ配置情報取得部210は、通信部205およびネットワークを介して、サーバ130からカメラ配置情報を取得する。
視野角情報取得部220は、通信部205およびネットワークを介して、サーバ130から視野角情報を取得する。
仮想視点情報取得部230は、通信部205およびネットワークを介して、コントローラ120から仮想視点情報を取得する。
優先度算出部240は、カメラ配置情報取得部210が取得したカメラ配置情報と、視野角情報取得部220が取得した視野角情報とに基づき優先度を算出する。
レンダリング部250は、サーバ130から撮影画像データ、前景オブジェクトおよび背景オブジェクトの3次元モデルを取得する。レンダリング部250は、カメラ配置情報取得部210からカメラ配置情報を取得し、仮想視点情報取得部230から仮想視点情報を取得し、優先度算出部240から優先度を取得する。レンダリング部250は、前景オブジェクトおよび背景オブジェクトの3次元モデルについて、撮影画像データを用いてレンダリング処理を行い、仮想視点情報で指定された仮想視点からの見えを表す仮想視点画像データを生成する。
表示装置300は、画像処理装置200とネットワークまたはSDIなどの映像伝送経路を介して接続され、レンダリング部250でレンダリング処理された仮想視点画像データを表示する。なお、画像処理装置200により仮想視点画像データが出力される先は表示装置300に限らず、仮想視点画像データを記憶する記憶装置などであってもよい。
図2は、本実施形態における画像処理装置200のハードウェア構成図である。画像処理装置200は、CPU201、ROM202、RAM203、記憶装置204、及び通信部205を有する。
CPU201は、画像処理装置200の全体を制御する中央演算ユニットであり、画像処理装置200の処理シーケンスを統括的に制御する。ROM202及び記憶装置204は、後述する処理フローを実現するためのプログラムやデータを格納する。RAM203は、データの一時保存やプログラムのロードに使用される。通信部205は、ネットワーク206を介した外部装置とのデータの送受信を行う。通信部205は、例えば、画像処理装置200によって画像合成を行った仮想視点画像データを、ネットワーク206を介して表示装置300に送信する。画像処理装置200の各構成要素は、バス207を介して相互に接続されている。
次に図3に示すフローチャートを用いて、画像処理装置200の各構成部による処理フローを説明する。なお、本フローチャートで示す処理に係るプログラムは画像処理装置200の記憶装置に格納されており、ROM202によって呼び出され、CPU201によって実行される。
ステップS301では、カメラ配置情報取得部210が、キャリブレーション済みのカメラ配置情報を取得する。カメラ配置情報は、各カメラの位置T=(tx,ty,tz)と、光軸方向Ropt=(rx,ry,rz)とが記述されたデータである。キャリブレーション済みのカメラ配置情報は、特許文献1に示すようにサーバ130において予めカメラ110から受信したカメラ配置情報および撮影画像データを用いてキャリブレーション処理によって算出しておく。なお、以降、単にカメラ配置情報と記載した場合は、キャリブレーション済みのカメラ配置情報を指すものとする。
ステップS302では、視野角情報取得部220が、視野角情報を取得する。視野角情報は、LEDディスプレイ6の表示面上の位置Tled=(x,y,z)と、位置TledにおけるLEDディスプレイ6の表示面の法線方向N=(nx,ny,nz)とが記述されたデータである。
ステップS303では、優先度算出部240が、カメラ配置情報および視野角情報に基づき、レンダリング処理で用いる撮影画像データの優先度を算出する。
図4に、複数のカメラ110のカメラ配置を示す。全てのカメラ110a〜110pは、サッカースタジアム4内を囲うように配置され、フィールド5およびその周囲にあるLEDディスプレイ6などを含む撮影領域を撮影する。また、フィールド5内にプレーヤー7がおり、仮想視点(仮想カメラ)10からの仮想視点画像には、フィールド5、LEDディスプレイ6、およびプレーヤー7が写ることになる。
仮想視点画像に写るオブジェクトのうち、指向性の高い光源を用いたLEDディスプレイ6の表示面は視野角外からの視認性は著しく低下する。そのため、本実施形態では、LEDディスプレイ6の表示面の表示が明瞭に写っている撮影画像データをLEDディスプレイ6のレンダリングに使用する。
本実施形態では、LEDディスプレイ6の表示面の表示が明瞭に写っている撮影画像データが得られるカメラ110を、下記式(1)により算出される優先度Pに基づき判定する。
Figure 2020197927
ここでカメラ110の光軸方向RoptとLEDディスプレイ6の表示面の法線方向Nとはベクトルの大きさが1になるよう正規化されているものとする。この優先度Pは、LEDディスプレイ6との配置関係が最も正対に近いカメラ110で最大となる。図4の例では、カメラ110dの優先度Pが最大となる。
ステップS304では、仮想視点情報取得部230が、コントローラ120から仮想視点情報を取得する。仮想視点情報は、コントローラ120におけるユーザ操作によって得られた仮想視点の位置、姿勢、焦点距離に関する情報を含む。
ステップS305では、レンダリング部250が、サーバ130からカメラ110の撮影画像データ、前景オブジェクトおよび背景オブジェクトの3次元モデルを取得する。
ステップS306では、レンダリング部250が、撮影画像データ、前景オブジェクトおよび背景オブジェクトの3次元モデル、優先度および仮想視点情報に基づき、設定された仮想視点10からの見えを表す仮想視点画像データをレンダリングする。
視野角情報が関連付けられていないLEDディスプレイ6以外のオブジェクトをレンダリングする際は、仮想視点10に近いカメラ110iの撮影画像データから順に用いる。一方、視野角情報が関連付けられているLEDディスプレイ6をレンダリングする際は、優先度Pの大きいカメラ110の撮影画像データを優先的に用いる。レンダリング部250でのレンダリングには、特許文献1に示すイメージベースレンダリングまたはモデルベースレンダリングを用いることができる。
LEDディスプレイ6をレンダリングする際には、例えば、優先度が最も高いカメラ110の撮影画像データが用いられてもよい。また例えば、優先度が閾値以上である複数のカメラ110の中から各カメラ110の位置や向きに基づいて選択されたカメラ110の撮影画像データが用いられてもよい。レンダリングに使用する撮影画像の決定における優先度の使用方法は、これらの例に限定されない。
また、LEDディスプレイ6の一部または全部を撮影できていないカメラ110の撮影画像データは、LEDディスプレイ6のレンダリングに用いなくてもよい。例えば、あるカメラ110の位置とLEDディスプレイ6の位置を結ぶ線上に選手が位置する場合、そのカメラ110の撮影画像データにおいてLEDディスプレイ6の少なくとも一部が選手により遮蔽されてしまう。そのような撮影画像データをレンダリングに用いると、LEDディスプレイ6のモデルに選手の色を用いた誤った色付けがされてしまう。そこで、レンダリング部250は、LEDディスプレイ6全部を撮影できているカメラ110のうち優先度の高いカメラ110の撮影画像データを用いて、LEDディスプレイ6のレンダリングを行ってもよい。あるいはレンダリング部250は、LEDディスプレイ6の部分ごとに、その部分を撮影できているカメラ110のうち優先度の高いカメラ110の撮影画像データを用いてレンダリングを行ってもよい。すなわち、あるカメラ110から見てLEDディスプレイ6の一部が遮蔽されている場合、遮蔽されていない部分のレンダリングにはそのカメラ110の撮影画像データを用いるようにしてもよい。またその場合、遮蔽されている部分のレンダリングにはそのカメラ110の撮影画像データを用いないようにしてもよい。
図5に、カメラ110dおよび110iの撮影画像データの模式図を示す。図5(a)はカメラ110dから得られた撮影画像データを示しており、LEDディスプレイ6を正面側から撮影しているためLEDディスプレイ6に表示される文字「Football」が鮮明に撮影されている。一方、図5(b)はカメラ110iから得られた撮影画像データを示しており、LEDディスプレイ6を表示面の視野角の外側から撮影しているため、表示面に表示される文字が暗く見えづらく撮影されている。
図6に、本開示の技術を用いたレンダリング結果の差異を示す。図6(a)はLEDディスプレイ6をその他のオブジェクトと同じく優先度Pを考慮せずにレンダリングした結果を示し、図6(b)は優先度Pを考慮してレンダリングした結果を示す。
図6(a)では、LEDディスプレイ6が、その側面側から撮影したカメラ110iの撮影画像データを用いているため暗く見えづらくレンダリングされる。一方で図6(b)では、LEDディスプレイ6が、LEDディスプレイ6の正面側から撮影したカメラ110dの画像データを用いているため鮮明にレンダリングされる。
以上のようにレンダリングした結果は、仮想視点画像データとして記憶装置204に記憶するか、仮想視点画像データを通信部205およびネットワーク206を介して表示装置300に送信して表示することができる。
このように、オブジェクトの表示面の法線とカメラの光軸との関係から優先度を算出し、その優先度Pの高いカメラの撮影画像データを優先して用いてレンダリングすることにより、オブジェクトの視認性が低下する仮想視点を低減することができる。
なお、本実施形態では、LEDディスプレイ6全体を1つのオブジェクトとしたが、LEDディスプレイ6を構成する各要素を1つのオブジェクトとしてもよい。例えば、LEDディスプレイ6を表す複数のボクセルの各々を1つのオブジェクトとしてもよい。そして、各要素に対して視野角情報を設定し、要素ごとに設定された視野角情報に基づき優先度を算出してもよい。このような場合、LEDディスプレイ6に対して複数の視野角情報が設定でき、視野角情報が設定された要素ごとに優先度の高い撮影画像データを用いてLEDディスプレイ6をレンダリングすることができる。
また、視野角情報を設定するオブジェクトとしては、LEDディスプレイの他に、液晶ディスプレイや、表面に光沢のある物体、フィールドの芝など、見る角度によって視認性や見え方が変化するオブジェクトであれば、本実施形態と同様の効果を奏する。
また、視野角情報を設定するオブジェクトは、ユーザが指定してもよいし、サーバ130や他の画像処理装置がカメラごとの撮影画像データを比較して画質の変化量に基づき指定してもよい。視野角情報も、ユーザが設定してもよいし、サーバ130や他の画像処理装置が画質の変化量に基づき設定してもよい。
[実施形態2]
実施形態1では、カメラ配置情報と視野角情報とに基づき優先度を算出した。本実施形態では、さらに仮想視点とカメラの配置を加味して優先度を算出する方法について説明する。
本実施形態の構成、処理フローは、以下に記載するステップS302、ステップS306以外は実施形態1と同様である。そのため以下、実施形態1と同様の構成、処理フローについては説明を省略する。
図7にシステム構成を示す。また図8に、本実施形態における画像処理装置200の各構成部による処理フローを示す。
ステップS801では、仮想視点情報取得部230が、コントローラ120からネットワーク経由で仮想視点情報を取得する。
ステップS802では、優先度算出部240が、仮想視点情報取得部230により取得された仮想視点情報を考慮した優先度Pmを算出する。まず、仮想視点10の視線方向Rvir=(rvx,rvy,rvz)とカメラ110の光軸方向Roptとの内積を用いて、仮想視点を考慮した優先度Pvirを下記式(2)により算出する。
Figure 2020197927
そして優先度Pと優先度Pvirとを掛け合わせたカメラの優先度Pmを下記式(3)により算出する。
Figure 2020197927
図9に、図4に示す例におけるカメラごとの優先度P,Pvir,Pmの算出結果を示す。Pmの値は、仮想視点10に近くかつLEDディスプレイ6の正面側を撮影しているという条件を満たすカメラ110gが最大となる。
ステップS306では、レンダリング部250がレンダリングする際、LEDディスプレイ6には優先度Pmの高いカメラの撮影画像データを優先的に用いる。
以上述べたように、仮想視点とカメラの配置に基づく優先度Pvirを加味した優先度Pmを用いることで、LEDディスプレイ6を正面側から撮影しているカメラの中でもより仮想視点に近いカメラ110gの撮影画像データを優先してレンダリングする。これによりLEDディスプレイ6を見やすくしながら、仮想視点からの見え方により近い仮想視点画像データを生成することができる。
[実施形態3]
本実施形態では視野角情報としてLEDディスプレイの配光特性を加味して優先度を算出する方法について説明する。
本実施形態の構成、処理フローは、以下に記載するステップS302、ステップS303以外は実施形態1と同様である。そのため以下では、実施形態1と同様の構成、処理フローについては説明を省略する。
ステップS302では、視野角情報取得部220が、視野角情報としてオブジェクトの位置Tled、表示面の法線方向Nに加えて配光特性Iled(θ)を取得する。この配光特性Iled(θ)は、LEDディスプレイ6から発する光の強度の分布を表す、発光面の法線方向からの角度θの関数であり、予め測定して求めておく。そして、配光特性Iled(θ)を視野角情報の一部として、サーバ130に予め記憶しておく。
図10に、LEDディスプレイ6の典型的な配光特性Iled(θ)の例を示す。θ=0のときに最大となり、θが大きくなるにつれて値は小さくなる。なお、最大値が1となるようにIled(θ)の値を正規化しておく。
ステップS303では、優先度算出部240が、LEDディスプレイ6から発する光のうち、カメラ110に向かう光の強度に基づき優先度を算出する。そのため、まずLEDディスプレイ6の表示面の法線方向Nと、カメラ110に向かう方向との角度θcを下式(4)により求める。
Figure 2020197927
ここで、Tは各カメラの位置、TledはLEDディスプレイ6の位置、NはLEDディスプレイ6の表示面の法線方向である。したがって、LEDディスプレイ6からカメラ方向θcに発せられる光の強度は、配光特性Iled(θc)となる。
これらから本実施形態では、配光特性を考慮した優先度Plを下式(5)から求める。
Figure 2020197927
図11に、カメラ110ごとの優先度Plを示す。光の強度が最大となる方向はLEDディスプレイ6の表示面の法線方向となるため、カメラ110dの優先度Plが最大となる。
ステップS306では、レンダリング部250がレンダリングする際、LEDディスプレイ6には優先度Plの高いカメラの撮影画像データを優先的に用いる。
以上述べたように、LEDディスプレイ6の配光特性を用いて算出された優先度に基づき決定したカメラの撮影画像データを優先的に用いてレンダリングすることにより、LEDディスプレイ6をより明るい仮想視点画像データを生成することができる。
[実施形態4]
本実施形態では、視野角情報としてカメラから撮影したLEDディスプレイの像の輝度のヒストグラムに基づき優先度を算出する方法について説明する。
本実施形態の構成、処理フローは、以下に記載するステップS302、ステップS303以外は実施形態1と同様である。そのため以下、実施形態1と同様の構成、処理フローについては説明を省略する。
ステップS302では、視野角情報取得部220が、視野角情報として、カメラ110の各々の撮影画像データ中のLEDディスプレイ6に対応する画素領域の輝度の中央値でカメラ110を分類したヒストグラムを取得する。なお、画素領域の輝度の中央値に替えて、画素領域の輝度の平均値や最頻値、標準偏差など他の値を使用してもよい。
図12に、図4の例において、横軸にLEDディスプレイ6に対応する画素領域の輝度の中央値、縦軸にカメラ数をとったヒストグラムを示す。LEDディスプレイ6に対応する画素領域の輝度値が比較的高い撮影画像データが得られたカメラ群Aは、LEDディスプレイ6を正面側から撮影しているため、輝度値の高い撮影画像データが得られたと考えられる。LEDディスプレイ6に対応する画素領域の輝度値が比較的低い撮影画像データが得られたカメラ群Bは、LEDディスプレイ6を側面側、あるいは裏側から撮影しているため輝度値の低い撮影画像データが得られたと考えられる。
ステップS303では、優先度算出部240が、視野角情報として取得したヒストグラムに基づき優先度Phを算出する。まず撮影画像データにおけるLEDディスプレイ6に対応する画素領域の輝度値が最上位(輝度値226〜250)のビンから順に、ビンの数に応じた優先度を割り振る。図12に示す例では、ビンの数を10とし、各ビンに1.0、0.9、0.8、・・・、0.1と優先度を割り振る。すなわち輝度値226〜250のビンは優先度1.0、輝度値201〜225のビンは優先度0.9、・・・、輝度値0〜25のビンは優先度0.1とする。
さらに同じビンに属するカメラ間の優先度の差が、各ビンの優先度の幅の中で等しくなるよう、カメラ110の各々の優先度Phを設定する。すなわち、輝度値226〜250のビンにカメラ110のうちの2つが含まれる場合、撮影画像データにおける対象画素領域の輝度値が大きい方からそれぞれ優先度Phに1.0、0.95を設定する。また、輝度値201〜225のビンにカメラ110のうちの5つが含まれる場合、撮影画像データにおける対象画素領域の輝度値の大きい方からそれぞれ優先度Phに0.9、0.88、0.86、0.84、0.82を設定する。同様にカメラ110のうちの残りのカメラに対しても優先度Phを設定する。なお、LEDディスプレイ6が写っていない撮影画像データが得られないカメラは優先度0とする。
ステップS306では、レンダリング部250がレンダリングする際、LEDディスプレイ6には優先度Phに基づき決定したカメラの撮影画像データを優先的に用いる。
以上述べたように、本実施形態では、視野角情報として撮影画像データ中のLEDディスプレイ6に対応する画素領域の輝度値でカメラを分類したヒストグラムに基づく優先度の高いカメラの撮影画像データを優先的にレンダリングに用いる。これにより、本実施形態では、LEDディスプレイ6がより明るくレンダリングされた仮想視点画像データを生成することができる。
なお、撮影画像内におけるオブジェクトに対応する画素領域の輝度値に基づいてカメラの優先度を決定する方法は上記に限定されない。例えば、図12に示すヒストグラムにおいて輝度値が閾値以上となるビン(輝度値が251〜255のビンなど)に属するカメラについては、優先度を低く設定してもよい。輝度値が大きすぎる画素を含む撮影画像は白飛びが発生しており、そのような撮影画像をレンダリングに使用すると仮想視点画像の画質が低下する虞があるためである。このような方法によれば、表面に光沢があり反射率が高いオブジェクト(例えばガラス面など)を含む仮想視点画像の生成において、反射光が強く入射するカメラの撮影画像がレンダリングに用いられることによる仮想視点画像の画質低下を抑制できる。
なお、実施形態1〜4においては、それぞれ異なる優先度を用いたが、これらの優先度は個別に使用しても、それらを掛け合わせたり、足し合わせたりして複数の優先度を同時に使用してもよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110 カメラ
120 コントローラ
130 サーバ

Claims (11)

  1. 複数のカメラを用いた同期撮影により取得された複数視点画像データから仮想視点画像データを生成する画像処理装置であって、
    前記複数のカメラの配置情報を取得する第1の取得手段と、
    前記複数視点画像データに含まれるオブジェクトのうち、所定のオブジェクトの視野角情報を取得する第2の取得手段と、
    前記仮想視点画像データを生成するための仮想視点情報を取得する第3の取得手段と、
    前記配置情報及び前記視野角情報に基づき、前記複数のカメラの各々の優先度を算出する算出手段と、
    前記複数視点画像データ、前記複数視点画像データから生成された各オブジェクトの3次元形状データ、及び前記仮想視点情報に基づき、前記仮想視点画像データを生成する生成手段と、
    を備え、
    前記生成手段は、前記所定のオブジェクトのレンダリングを行うために、前記複数視点画像データを構成する前記複数のカメラそれぞれに対応する撮影画像データのうちの前記所定のオブジェクトを含む撮影画像データについては、前記優先度の高いカメラから得られた撮影画像データから優先的に使用する
    ことを特徴とする画像処理装置。
  2. 前記算出手段は、前記複数のカメラのうち、前記所定のオブジェクトに正対する位置に近いカメラほど前記優先度が高くなるよう、前記優先度を算出する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記配置情報は、前記複数のカメラの各々の光軸の情報を含み、
    前記視野角情報は、前記視野角情報が関連付けられた前記所定のオブジェクトの法線の情報を含み、
    前記算出手段は、前記光軸の情報及び前記法線の情報に基づき、前記複数のカメラのうち、前記所定のオブジェクトの法線とのなす角が小さい光軸を有するカメラほど前記優先度が高くなるよう、前記優先度を算出する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記算出手段は、前記配置情報及び前記視野角情報に加えて、前記仮想視点情報に基づき前記優先度を算出する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記算出手段は、前記複数のカメラのうち、前記仮想視点情報で設定された仮想視点の位置に近いカメラほど前記優先度が高くなるよう、前記優先度を算出する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記視野角情報は、前記所定のオブジェクトが有する光源の配光特性を含むことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記算出手段は、前記複数のカメラのうち、前記所定のオブジェクトが発する光の強度が強い方向に位置するカメラほど前記優先度が高くなるよう、前記優先度を算出する
    ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記視野角情報は、前記撮影画像データにおける前記所定のオブジェクトに対応する画素領域の輝度値で前記複数のカメラを分類したヒストグラムを含むことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記算出手段は、前記複数のカメラのうち、前記所定のオブジェクトに対応する画素領域の輝度値が高い前記撮影画像データが得られたカメラほど前記優先度が高くなるよう、前記優先度を算出する
    ことを特徴とする請求項1又は8に記載の画像処理装置。
  10. 複数のカメラを用いた同期撮影により取得された複数視点画像データから仮想視点画像データを生成する画像処理方法であって、
    前記複数のカメラの配置情報を取得する第1の取得ステップと、
    前記複数視点画像データに含まれるオブジェクトのうち、所定のオブジェクトの視野角情報を取得する第2の取得ステップと、
    前記仮想視点画像データを生成するための仮想視点情報を取得する第3の取得ステップと、
    前記配置情報及び前記視野角情報に基づき、前記複数のカメラの各々の優先度を算出する算出ステップと、
    前記複数視点画像データ、前記複数視点画像データから生成された各オブジェクトの3次元形状データ、及び前記仮想視点情報に基づき、前記仮想視点画像データを生成する生成ステップと、
    を備え、
    前記生成ステップは、前記所定のオブジェクトのレンダリングを行うために、前記複数視点画像データを構成する前記複数のカメラそれぞれに対応する撮影画像データのうちの前記所定のオブジェクトを含む撮影画像データについては、前記優先度の高いカメラから得られた撮影画像データから優先的に使用する
    ことを特徴とする画像処理方法。
  11. コンピュータを、請求項1乃至9のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2019103846A 2019-06-03 2019-06-03 画像処理装置、画像処理方法、及びプログラム Active JP7408298B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019103846A JP7408298B2 (ja) 2019-06-03 2019-06-03 画像処理装置、画像処理方法、及びプログラム
US16/887,249 US11308679B2 (en) 2019-06-03 2020-05-29 Image processing apparatus, image processing method, and storage medium
US17/701,107 US12112419B2 (en) 2019-06-03 2022-03-22 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019103846A JP7408298B2 (ja) 2019-06-03 2019-06-03 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020197927A true JP2020197927A (ja) 2020-12-10
JP7408298B2 JP7408298B2 (ja) 2024-01-05

Family

ID=73550291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019103846A Active JP7408298B2 (ja) 2019-06-03 2019-06-03 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (2) US11308679B2 (ja)
JP (1) JP7408298B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020084894A1 (ja) * 2018-10-24 2020-04-30 ソニー株式会社 マルチカメラシステム、制御値算出方法及び制御装置
JP7401199B2 (ja) * 2019-06-13 2023-12-19 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2023046978A (ja) * 2021-09-24 2023-04-05 富士フイルムビジネスイノベーション株式会社 照合装置及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018133063A (ja) * 2017-02-17 2018-08-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2019067130A (ja) * 2017-09-29 2019-04-25 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007032819A2 (en) * 2005-07-21 2007-03-22 Regents Of The University Of Minnesota Camera placement and virtual-scene construction
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
KR20140060760A (ko) * 2012-11-12 2014-05-21 엘지전자 주식회사 어레이 카메라, 휴대 단말기 및 그 동작 방법
JP6482498B2 (ja) 2016-05-25 2019-03-13 キヤノン株式会社 制御装置、制御方法、及び、プログラム
CN107801413B (zh) * 2016-06-28 2020-01-31 华为技术有限公司 对电子设备进行控制的终端及其处理方法
JP6434947B2 (ja) * 2016-09-30 2018-12-05 キヤノン株式会社 撮像システム、画像処理装置、画像処理方法、及びプログラム
US10155166B1 (en) * 2017-09-08 2018-12-18 Sony Interactive Entertainment Inc. Spatially and user aware second screen projection from a companion robot or device
US10341537B2 (en) * 2017-09-29 2019-07-02 Sony Interactive Entertainment America Llc Spectator view into an interactive gaming world showcased in a live event held in a real-world venue
US11179635B2 (en) * 2017-10-11 2021-11-23 Sony Interactive Entertainment LLC Sound localization in an augmented reality view of a live event held in a real-world venue

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018133063A (ja) * 2017-02-17 2018-08-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2019067130A (ja) * 2017-09-29 2019-04-25 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20200380753A1 (en) 2020-12-03
US12112419B2 (en) 2024-10-08
US20220215610A1 (en) 2022-07-07
US11308679B2 (en) 2022-04-19
JP7408298B2 (ja) 2024-01-05

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US8885922B2 (en) Image processing apparatus, image processing method, and program
US9445071B2 (en) Method and apparatus generating multi-view images for three-dimensional display
US7454065B2 (en) Specific point detecting method and device
JP6625745B2 (ja) 画像処理装置
JP7408298B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4828506B2 (ja) 仮想視点画像生成装置、プログラムおよび記録媒体
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US11838674B2 (en) Image processing system, image processing method and storage medium
CN102739922A (zh) 图像处理装置、图像处理方法和程序
JP3990271B2 (ja) 簡易ステレオ画像入力装置、方法、プログラム、および記録媒体
US20140198104A1 (en) Stereoscopic image generating method, stereoscopic image generating device, and display device having same
WO2018179254A1 (ja) 画像生成装置、画像生成方法及びプログラム
US20200167933A1 (en) Image processing apparatus, image processing method, and a non-transitory computer readable storage medium
KR20170070148A (ko) 3차원 이미지의 시차의 프로세싱
JP2018032112A (ja) データ処理装置、データ処理方法およびコンピュータプログラム
JP2004133919A (ja) 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体
US20220224822A1 (en) Multi-camera system, control value calculation method, and control apparatus
JP6200316B2 (ja) 画像生成方法、画像生成装置及び画像生成プログラム
WO2018180860A1 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2018209603A1 (zh) 图像处理方法、图像处理设备及存储介质
JP2019129469A (ja) 画像処理装置
US20240040106A1 (en) Image processing apparatus, image processing method, and storage medium
US20240340398A1 (en) Coding hybrid multi-view sensor configurations
JP2011048545A (ja) 画像合成装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R151 Written notification of patent or utility model registration

Ref document number: 7408298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151