JP2020067815A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2020067815A
JP2020067815A JP2018200042A JP2018200042A JP2020067815A JP 2020067815 A JP2020067815 A JP 2020067815A JP 2018200042 A JP2018200042 A JP 2018200042A JP 2018200042 A JP2018200042 A JP 2018200042A JP 2020067815 A JP2020067815 A JP 2020067815A
Authority
JP
Japan
Prior art keywords
image
foreground
background
generation
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018200042A
Other languages
English (en)
Other versions
JP7233881B2 (ja
Inventor
智裕 矢埜
Tomohiro Yano
智裕 矢埜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018200042A priority Critical patent/JP7233881B2/ja
Publication of JP2020067815A publication Critical patent/JP2020067815A/ja
Application granted granted Critical
Publication of JP7233881B2 publication Critical patent/JP7233881B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】前景画像の生成に用いられる画像を基に、適切な背景画像を生成する。【解決手段】前景生成システム110Aは、注視点301に向けて設置された撮影システム111a〜111zによって撮影された画像を用いて前景画像を生成する。また、前景生成システム110Bは、注視点501に向けて設置された撮影システム111A〜111Zによって撮影された画像を用いて前景画像を生成する。そして、背景生成システム120は、撮影システム111a〜111z、111A〜111Zによって撮影された画像を用いて生成される背景モデルに対する背景テクスチャ画像と、背景モデルとに基づいて、仮想視点画像の生成の際に用いられる背景画像を生成する。【選択図】図1

Description

本発明は、複数の視点で撮像された複数視点の画像に基づき、任意の仮想視点からの画像を生成する技術に関する。
複数の視点で撮像された複数視点の画像を用いて、任意の仮想視点における仮想視点画像を生成する技術がある。例えば、仮想視点画像を用いると、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴閲覧することができるので、通常の画像と比較してユーザに高臨場感を与えることができる。
仮想視点画像の生成及び閲覧は、複数のカメラで撮影した画像をサーバ等の画像処理装置に集約して、前景背景の分離、三次元モデルの生成、レンダリング等の処理を行い、ユーザ端末に仮想視点画像を伝送することで実現される。このとき、仮想視点画像の背景として予め用意したスタジアムなどのモデルデータを用い、前景の形状推定を行い、それらに色を付けることで三次元形状モデルを生成している。
前景の形状推定精度、すなわち前景の画質をよくするために、フォーカスや向きが注視点に合わせられた各カメラの画角を狭く、光学的に拡大した状態で撮影される。注視点は対象箇所に合わせて複数設けられる。
一方、注視点付近では、背景となるスタジアムが画像内に映りこむため、注視点とは無関係に、各カメラの画角を広く、光学的に引きの画でスタジアム全体を撮影する必要がある。
特許文献1には、複数台のプロジェクタが投影先のモデルに対して画像を重畳して表示する技術が記載されている。
特開2008−70397号公報
しかしながら、前景画像の生成と背景画像の生成とでカメラに要求される画角が異なっていることから、前景画像の生成に用いられるカメラで撮影された画像を基に、適切な背景画像を生成することができない場合があった。
特許文献1の技術では、共通の世界座標パラメータを持つ同期撮影されたカメラ群の画像を、同じく共通の世界座標をもつモデルに対して同期させて投影することができなかった。
本発明は、前景画像の生成に用いられるカメラで撮影された画像を基に、適切な背景画像を生成することを目的とする。
本発明の一態様に係る画像処理装置は、仮想視点画像を生成する画像処理装置であって、第一の位置に向けて設置された1以上のカメラで構成される第一のカメラ群によって撮影された画像に基づいて前景画像を生成する第一の前景生成手段と、前記第一の位置とは異なる第二の位置に向けて設置された1以上のカメラで構成される第二のカメラ群によって撮影された画像に基づいて前景画像を生成する第二の前景生成手段と、前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて生成される背景モデルに対するテクスチャ画像と、当該背景モデルと、に基づいて前記仮想視点画像の背景画像を生成する背景生成手段とを有する、ことを特徴とする。
本発明によれば、前景画像の生成に用いられるカメラで撮影された画像を基に、適切な背景画像を生成することができる。
画像処理システムの構成例を示すブロック図 仮想視点画像の生成処理手順例を示すフローチャート 撮影システムの概略構成を示す図 前景生成システムによる撮影範囲を説明するための図 他の前景生成システムによる撮影範囲を説明するための図 背景画像の範囲を説明するための図 仮想視点画像のレンダリングの様子を示した模式図 2つの前景生成システムによる撮影範囲と仮想視点レンダリング範囲の関係を示した模式図 画像処理システムの構成例を示すブロック図 2つの前景生成システムによる撮影範囲を示した模式図 画像処理システムの構成例を示すブロック図 仮想視点画像生成処理の手順例を示すフローチャート 撮影システムの撮影範囲と、画素の位置および非画像生成範囲を示す模式図 前景生成サーバのハードウェア構成例を示す図
以下、本発明の実施形態について図面を参照して説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。また、実施形態で説明されている構成要素の組み合わせのすべてが、課題を解決するための手段に必須のものとは限らず、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。なお、本実施形態では、背景画像が仮想視点画像の生成に用いられる例を説明するが、必ずしも仮想視点画像の生成に用いられるものでなくてよい。このため、複数カメラ間の相対的な幾何学的設置条件に縛られるものではない。
本明細書において符号の末尾のアルファベットは、同種の構成において個々の構成を識別するために用いている。末尾のアルファベットを省略して記載する場合、個々の構成を特に区別せずに記載しているものとする。
[実施形態1]
本実施形態では、仮想視点画像の生成に用いられる背景画像を生成する形態を説明する。
図1は、本実施形態に係る画像処理システムの全体構成例を示すブロック図である。
画像処理システム(仮想視点画像生成システム)100は、前景生成システム110A、110B、背景生成システム120、レンダリングシステム130を有し、カメラで撮影した画像を基に仮想視点画像を生成する。前景生成システム110A、110Bおよび背景生成システム120、レンダリングシステム130はそれぞれ、Ethrenet(登録商標)などのネットワークによって接続されている。なお、本実施形態では2つの前景生成システム110Aおよび110Bを有しているが、本実施形態はこれに限定されるものではなく、2つ以上のより多くの前景生成システム110を有する構成とすることも可能である。
前景生成システム110Aおよび110Bは仮想視点画像の前景画像を生成するために必要なシステムである。前景生成システム110Aと前景生成システム110Bは同様の構成であり、以降、前景生成システム110Aについて説明し、前景生成システム110Bについては説明を省略する。前景生成システム110Aは内部に撮影システム111a〜111z、前景生成サーバ113を有する。前景生成システム110Aおよび110Bは、カメラの向きおよび焦点距離を合わせた注視点毎にシステムが構成される。ただし、本実施形態において、複数のカメラの注視点が一致せず、ずれている構成であってよい。
撮影システム111は、カメラで仮想視点画像を生成する対象を撮影し、変換を行って得たデジタル画像を各ブロックに転送する機能を実現する。仮想視点画像を生成するため、前景生成システム110の中に同様の構成を持つ複数の撮影システム111があり、本実施形態では111aから111zまで26台の構成であるものとする。ただし、本実施形態はこれに限定されるものではなく、求める仮想視点画像の前景画像の品質が得られるだけの必要な十分な数の撮影システムを有していれば26台より少ない台数または多くの台数で構成されていてもよい。撮影システム111それぞれは内部に撮像部112を有する。
撮像部112は、カメラによって撮影された画像をデジタル画像に変換する機能を有する。また、撮像部112が有するカメラは同期信号を受信可能であり、後述のカメラ制御部117によって同期される。なお、撮影システム111a〜111zは同様の機能を有するが、それぞれのカメラについては異なるカメラやレンズなどを用いるなどしてもよい。
前景生成サーバ113は、前景画像生成部114、パラメータ取得部115、前景形状推定部116、カメラ制御部117を有する。前景生成サーバ113は、前景の形状を推定して前景モデルデータを生成し、生成した前景モデルデータをレンダリングシステム130に送信する。前景モデルデータは、前景の三次元形状を表すデータである。
前景画像生成部114は、撮影システム111a〜111zで撮影されて変換されたデジタル画像データから前景画像と背景画像を分離し、主な被写体(オブジェクト)である前景画像のみを抽出した前景画像データを生成する。生成された前景画像データは前景形状推定部116に送信される。前景画像は、例えば、画像データから選手などの動作する人物(動体)などを抽出した画像である。オブジェクトは、ボールなどのような物体であってもよい。背景画像は、例えば、芝生などの静止又は静止に近い状態が継続する物体を抽出した画像である。なお、前景画像と背景画像の分離方法は背景差分法に限定されるものではなく、公知の方法を適用可能である。なお、静止物体は、静止または、ほとんど静止している状態が継続している物体を指す。
パラメータ取得部115は、予めキャリブレーションによって取得された、撮像部112のカメラ(以下、撮影システム111のカメラともいう)のカメラパラメータを保有し前景形状推定部116に提供する。カメラパラメータは、カメラの位置や姿勢などを表す外部パラメータと、画素ピッチや画像中心などを表す内部パラメータなどからなる。カメラパラメータは他にレンズによる画像の歪みを表した歪みパラメータなどを含んでもよい。
前景形状推定部116は、パラメータ取得部115から取得した撮影システム111a〜111zのカメラパラメータと、前景画像生成部114から受信した前景画像データを用いて少なくとも前景の三次元形状を推定し、前景モデルデータを生成する。前景の三次元形状を推定する方法としては、例えばVisual Hullと呼ばれる方式などがあるが、本実施形態はこれに限らず、前景の形状を推定するどのような方法を用いてもよい。生成した前景モデルデータは、レンダリングシステム130に送信される。
カメラ制御部117は、撮影システム111a〜111zのカメラの撮影タイミングを同期させる信号を撮影システムに送信し、撮影システム111a〜111zのカメラの撮影タイミングの同期と共に、撮影の開始および停止の指示を行う。撮影の開始および停止の状態を示す信号は、後述の制御部134に送信される。なお、本実施形態はこれに限らず、同期信号用の信号線を別途有してもよく、また、無線などを用いた同期信号制御を行ってもよい。
前景生成システム110Bは、前景生成システム110Aと同様の構成と機能をもつシステムである。なお、前景生成システム110Bが有する撮影システム111の数量は、前景生成システム110Aと同数である必要はなく、仮想視点画像の前景を生成するために必要な十分な数の撮影システムを有していればよい。
背景生成システム120は、パラメータ取得部121、モデル取得部122、背景画像生成部123、合成判断部124、テクスチャ生成部125を有する。背景生成システム120は、撮影システム111で撮影されたデジタル画像データを用いて背景モデルに張り付けるための背景テクスチャ画像を生成する。背景モデルは、背景の三次元形状を表すデータである。
パラメータ取得部121は、パラメータ取得部115と同様の機能を有し、予めキャリブレーションによって取得された撮影システム111のカメラのカメラパラメータを保有しテクスチャ生成部125に提供する。
モデル取得部122は、背景をメッシュモデル化した背景メッシュモデルデータを背景モデルとして取得し、テクスチャ生成部125に提供する。例えば、野球やサッカーなどのスポーツを撮影する場合は、そのスポーツが実際に行われているスタジアムのメッシュモデルデータなどが考えられるが、本実施形態はこれに限らず、どのようなメッシュモデルデータを用いてもよい。メッシュモデルとは、例えばCADデータなどの三次元の空間形状の面の集合で表現したデータのことである。背景モデルを表現する形式は、メッシュモデルの形式に限らず、例えは、点群やボクセルなどの他の公知の形式であってもよい。
背景画像生成部123は、撮影システム111a〜111zで撮影されたデジタル画像データから前景画像と背景画像を分離し、背景画像のみを抽出した背景画像データを生成する。生成された背景画像データはテクスチャ生成部125に送信される。
合成判断部124は、画像処理システム100内に存在する前景生成システム110を認識する。そして、合成判断部124は、それぞれの前景生成システム110から受信する画像データについて、どの前景生成システムの画像データを用いるか使用可否についてユーザから指示を受け、それらの情報をテクスチャ生成部125に提供する。
テクスチャ生成部125は、背景画像データを用い、背景メッシュモデルデータのメッシュに対し、カメラパラメータを用いて射影変換を行って投影し合成処理を行う。背景画像データは、合成判断部124から提供された画像データの使用可否の情報を基に、前景生成システム110Aおよび110Bで得たデジタル画像データのうち、使用対象のデジタル画像データから背景画像生成部123で生成されるデータである。背景メッシュモデルデータは、モデル取得部122から提供されるデータである。カメラパラメータは、パラメータ取得部121から提供される。
そして、テクスチャ生成部125は、背景メッシュモデルへの投影と合成により、各メッシュのテクスチャ画像を生成する。すなわち、テクスチャ生成部125は、前景生成システム110Aおよび110Bで得たデジタル画像データを用いて、背景メッシュモデルデータに対する背景テクスチャ画像を生成する。テクスチャ生成部125は、生成した背景テクスチャ画像として背景モデルデータと共にレンダリングシステム130に送信する。テクスチャとは、物体の表面の質感を表現するために張り付ける画像のことである。
カメラ画像を背景メッシュモデル上に投影する方法としては、例えば、以下の方法が考えられる。あるメッシュ上の4点、例えばメッシュが四角形であればテクスチャ画像上の端部に紐づけて、4点のカメラ画像上での座標とテクスチャ画像の頂点座標の対応から、ホモグラフィを求めて透視変換するなどの方法が考えられる。カメラ画像を透視変換し背景メッシュモデル上に投影した結果、カメラ画像が重複する場合は、それらを合成して画像を生成する。なお、本実施形態はこれに限定されるものではなく、背景画像データをテクスチャ画像上に投影するどのような方法を用いてもよい。
レンダリングシステム130は、レンダリング部131、操作部132、出力部133、制御部134を有する。レンダリングシステム130は、前景生成システム110Aまたは110Bから取得した前景モデルデータ、背景生成システム120から取得した背景モデルデータ、背景テクスチャ画像を用い、ユーザ操作に従って仮想視点画像を生成する。
レンダリング部131は、前景生成システム110A、110Bから受信した前景モデルデータと、背景生成システム120から受信した背景モデルデータおよび背景テクスチャ画像とを用い、演算によって仮想視点からの画像をレンダリングする。演算としては、例えばCPUまたはGPUなどの演算が挙げられる。また、仮想視点画像の変更操作については後述の操作部132によってユーザからの操作を受け付けることで行われる。
操作部132はキーボードやマウス、ジョイスティックやタッチパッド等の操作部材、或いはファイル入力等の入力手段を有し、ユーザによる仮想視点の変更操作や撮影開始の指示、その他画像処理システム100各部への指示を受け付ける。変更された仮想視点の情報をレンダリング部131に送信する。
出力部133はDisplay PortやSDIなどの画像信号出力端子と、それらの画像信号を入力して画像として表示するTVやディスプレイ、プロジェクタ装置などの表示装置を有する。出力部133は、レンダリングされた仮想視点画像をユーザが目視で確認できる画像として出力する。なお、本実施形態はこれに限らず、仮想視点画像を静止画または動画として画像データとして出力し、ネットワークへの配信、あるいはストレージデバイスに対して保存するものであってもよい。
制御部134は、前景生成システム110Aおよび110B、背景生成システム120の各システムと通信し、各種制御を行う。制御部134は、前景生成システム110Aおよび110Bによる前景画像データ、前景モデルデータの生成の開始や停止、背景生成システム120による背景画像データ、背景テクスチャ画像の生成の開始や停止、注視点の切り替え操作等を行う。すなわち、制御部134は、画像処理システム100の各ブロックの制御を行う。
図2は、画像処理システム100による仮想視点画像の生成処理手順例を示すフローチャートである。本フローチャートを用いて本実施形態の画像処理システムの仮想視点画像生成処理について説明する。
図2(a)は、前景生成システム110Aによる前景モデルデータの生成処理手順例を示すフローチャートである。なお、ここでは前景生成システム110Aによる処理に関して説明するが、前景生成システム110Bでも、図2(a)と同様の処理が行われる。以下の各記号Sは、フローチャートにおけるステップであることを意味する。これらは図2以降についても同様である。
前景生成システム110Aのカメラ制御部117は、後述のS221で制御部134から送信された撮影開始指示の信号を受信する(S201)。
図3は、撮影システムの概略構成を示す図である。図3に示すように、撮影システム111a〜111zは、スタジアム300を囲むように設置される。スタジアム300は、本実施形態の背景メッシュモデルデータを示しており、観客席の無いグラウンドのみの平面モデルを用いている。平面モデルは、三次元空間上に平面として表される三次元モデルである。本実施形態では平面モデルを用いた場合を示しているが、本実施形態はこれに限定されるものではなく、立体的な構造を持つモデルであってもよい。
注視点301は前景生成システム110Aの注視点である。各撮影システム111a〜111zのカメラは注視点301の方向に向き、注視点301に焦点が合うように設置される。すなわち、撮影システム111a〜111zのカメラの注視点(撮影中心)は、注視点301である。
カメラ制御部117は、撮影システム111a〜111zのカメラの撮影タイミングを同期させる(S202)。
カメラ制御部117による撮影システム111a〜111zのカメラの撮影タイミングが同期すると、カメラ制御部117は、撮影システム111a〜111zに対して撮影開始を指示する。撮影システム111a〜111zの撮像部112は、カメラで撮影した画像をデジタル画像データに変換し当該デジタル画像データを前景画像生成部114及び背景画像生成部123に送信する。また、同期撮影が開始されると、カメラ制御部117は、同期撮影が開始されたことを示す信号を制御部134に送信する(S203)。
前景画像生成部114は、撮影システム111a〜111zが撮像部112によってカメラで撮影した画像を変換したデジタル画像データから前景画像と背景画像を分離し、背景画像を取り除いて前景画像のみを抽出した前景画像データを生成する。そして、前景画像生成部114は、生成した前景画像データを前景形状推定部116に提供する(S204)。
前景形状推定部116は、前景画像生成部114から受信した前景画像データと、パラメータ取得部115から取得したカメラパラメータとを用いて前景の形状を推定し、前景モデルデータを生成する(S205)。なお、パラメータ取得部115は、予めキャリブレーションによって取得されたカメラパラメータを本フロー前に保有しているものとする。
前景形状推定部116は、生成した前景モデルデータをレンダリング部131に送信する(S206)。
図2(b)は、背景生成システム120による背景データの生成処理手順例を示すフローチャートである。
背景生成システム120の合成判断部124は、ユーザによって予め設定された前景生成システム110のいずれの画像データを用いて背景テクスチャ画像を生成するかを取得する(S211)。本実施形態では、前景生成システム110Aおよび110Bのすべての画像データを用いて背景画像データを生成するものとする。
背景画像生成部123は、S211で取得した合成判断部124の判断結果に基づき、S203で撮影され変換されたデジタル画像データを前景生成システム110Aまたは110Bから受信する(S212)。例えば、ここでは、前景生成システム110Aからの画像データを受信したものとする。
合成判断部124は、背景画像生成部123が、背景画像データを生成するデータとして設定されている前景生成システム110Aおよび110Bの全てからデータを取得したかを判断する(S213)。
合成判断部124は、前景生成システム110Aおよび110Bの全てからデータを取得して合成範囲の全てのデータが揃っていると判断すると、処理をS214に移行する。合成判断部124は、前景生成システム110Aおよび110Bの全てからデータを取得しておらず、合成範囲の全てのデータが揃っていないと判断すると、処理をS212に返し、S212とS213の処理を繰り返す。例えば、先のS212では前景生成システム110Aの画像データを受信しているが、前景生成システム110Bの画像データを受信していないため、S212に戻って前景生成システム110Bの画像データの受信を待つことになる。その後、S212で前景生成システム110Bの画像データの受信が完了すると、合成判断部124は、S213では合成判断部124に設定されたすべての前景生成システムの画像データが揃っていると判断し、処理をS214に移行する。
背景画像生成部123は、S212で受信したデジタル画像データを前景画像と背景画像に分離し、背景画像のみを抽出した背景画像データを生成する。そして、背景画像生成部123は、生成した背景画像データをテクスチャ生成部125に提供する(S214)。
テクスチャ生成部125は、受信した背景画像データを、モデル取得部122から取得した背景モデルデータに対してカメラパラメータを用いて射影変換を行って投影し、それらを合成することで背景テクスチャ画像を生成する(S215)。なお、テクスチャ生成部125は、カメラパラメータをパラメータ取得部121から取得する。パラメータ取得部121は、予めキャリブレーションによってカメラパラメータを取得し保有しており、本フロー前にカメラパラメータを取得しているものとする。また、モデル取得部122は、背景モデルデータを本フロー前に取得しているものとする。
図4(a)、(b)は、前景生成システム110Aの撮影システム111a〜111zにより得られる撮影範囲を模式的に示した図である。
図4(a)は、撮影システム111tで撮影される範囲を示した図である。撮影システム111tによって、当該撮影システム111tが図示された位置から注視点301に焦点を合わせて撮影すると、撮影システム111tの撮影範囲は、注視点301を撮影中心とした領域400で示される範囲となる。すなわち、撮影システム111tの焦点が注視点301に合わされると、撮影システム111tの撮影範囲は、領域400で示される範囲となる。このように、図示された位置から注視点301に焦点を合わせて撮影した撮影システム111a〜111zの26つ全ての撮影範囲を合わせると、図4(b)に示すように、全撮影範囲は、注視点301を撮影中心とした第1の領域401となる。第1の領域401は、スタジアム300のほぼ右半分をカバーする。すなわち、背景画像生成部123は、前景生成システム110Aから受信したデジタル画像データを用いて、第1の領域401に該当する背景画像データを生成できる。
同様に、図5は、前景生成システム110Bの撮影システム111A〜111Zにより得られる撮影範囲を模式的に示した図である。注視点501は前景生成システム110Bの注視点である。前景生成システム110Bの撮影システム111A〜111Zが図示された位置から注視点501に焦点を合わせて撮影すると、当該撮影システム111A〜111Zの全てを合わせた撮影範囲は、注視点501を撮影中心とした第2の領域502となる。第2の領域502は、スタジアム300のほぼ左半分をカバーする。すなわち、背景画像生成部123は、前景生成システム110Bから受信したデジタル画像データを用いて、第2の領域502に該当する背景画像データを生成できる。
本実施形態では、合成判断部124によって前景生成システム110Aおよび前景生成システム110Bの両方が使用されると判断されるため、それらを合わせた背景画像データが生成される。
図6は、背景生成システム120によって生成される背景画像の範囲を示した模式図である。前景生成システム110Aおよび110Bの各撮影システムの焦点を注視点301および501に合わせて撮影すると、撮影システムの全てを合わせた撮影範囲は、図4(b)の第1の領域401と図5の第2の領域502を合わせた全領域601となる。全領域601は、スタジアム300全体をカバーする。すなわち、背景生成システム120は、スタジアム300全体をカバーする全領域601に該当する背景画像データを生成できる。
テクスチャ生成部125は、背景画像生成部123によって生成された背景画像データを、パラメータ取得部121から取得したカメラパラメータを用いて射影変換し、背景モデルデータであるスタジアム300に投影することで背景テクスチャ画像を生成する。そして、テクスチャ生成部125は、背景モデルデータと、生成された背景テクスチャ画像をレンダリング部131に送信する(S216)。
図2(c)は、レンダリングシステム130による仮想視点画像の生成処理手順例を示すフローチャートである。
操作部132がユーザにより操作されて、仮想視点画像を生成開始する操作を受け付けると、仮想視点画像の生成開始の操作を受け付けたことを画像処理システム100の各部に対して通知し仮想視点画像生成の開始を指示する(S221)。
レンダリングシステム130の制御部134は、仮想視点画像の生成開始の操作を受け付けたことの通知を操作部132から受け取ると、前景生成システム110Aおよび110Bのカメラ制御部117に対して同期撮影開始を指示する(S222)。同期撮影が開始されると、制御部134は、S203で送信された、同期撮影が開始されたことを示す信号をカメラ制御部117から受信する。
レンダリング部131は、S206で生成された前景モデルデータを前景生成システム110Aおよび110Bの前景形状推定部116から受信する(S223)。
レンダリング部131は、S216で生成された背景モデルデータと背景テクスチャ画像をテクスチャ生成部125から受信する(S224)。
操作部132は、ユーザによる仮想視点の操作、すなわち、仮想視点座標の変更操作を受け付け、変更された仮想視点座標情報をレンダリング部131に送信する(S225)。
レンダリング部131は、受信した前景モデルデータと背景モデルデータを用い、操作部132から受信した仮想視点座標を用いてCPUまたはGPUなどの演算によって仮想視点からの画像をレンダリングする(S226)。
図7は、仮想視点画像のレンダリングの様子を示した模式図である。
仮想視点701は、カメラが設置されていない任意の視点である仮想視点のカメラを表している。この仮想視点701で仮想視点画像としてレンダリングされる範囲を示しているのが仮想視点レンダリング範囲702である。
仮想視点レンダリング範囲702は、前景生成システム110Aの撮影範囲である第1の領域401の範囲を超えた撮影外領域703を有する。撮影外領域703は、黒で塗りつぶされた領域である。撮影外領域703は、前景生成システム110Aのみの画像データを用いて背景テクスチャ画像を生成することはできない。
図8は、前景生成システム110Aおよび110Bの撮影範囲を合わせた全領域601と仮想視点レンダリング範囲702の関係を示した模式図である。本実施形態では、前景生成システム110Aと110Bの画像データのどちらも使用するため、全領域601の範囲において背景テクスチャ画像が生成される。よって、全領域601はスタジアム300のすべてが撮影範囲に含まれており、仮想視点レンダリング範囲702から見える範囲において、隙間の無い背景テクスチャ画像を生成することが出来る。
レンダリング部131が生成した画像は、出力部133に送られ、ディスプレイなどの表示装置(図示省略)を通してユーザに目視される、あるいは、ファイルなどの画像データとしてユーザに取得される(S227)。
以上説明したように、本実施形態によれば、画角を狭く設定したカメラで撮影された画像を基に、適切な背景画像を生成することができる。具体的には、注視点を向いた撮影範囲が限定されたカメラを用いて、仮想視点画像の背景生成の範囲を広げることが出来る。すなわち、複数の注視点毎に前景の形状推定を行う際、新たなカメラを追加することなく、背景生成の範囲を広げることが出来る。
(変形例)
以上、本実施形態について述べてきたが、本発明はこれに限定されるものではない。
例えば、本実施形態では、背景生成システム120及びレンダリングシステム130は別のシステムとしているが、同一のシステムとしてもよい。
注視点を選択するユーザインターフェース(選択手段)を有し、レンダリングシステム130は注視点を選択した前景生成サーバにより生成された前景モデルデータを用いた仮想視点画像を生成してもよい。
また、本実施形態では背景生成システム120に対して、前景生成システム110Aおよび前景生成システム110Bの2つの画像データが送られているが、これに限定されない。例えば、操作部132のユーザインターフェースによって、前景生成システム110Aおよび110Bの各々に対して、背景生成システム120への画像データの転送のオンとオフを切り替えることが出来てもよい。その場合、背景生成システム120は、画像データの転送がオンになっている前景生成システム110の画像データを用いて背景テクスチャ画像を生成する。
また、画像処理システムは、撮影システム111の注視点301および501と異なる注視点に向けて設置された1以上のカメラで構成される第3のカメラ群を有する第3の撮影システムをさらに有してもよい。第3のカメラ群は、前景生成システム110A、110Bが有する撮影システム111のカメラ(第1および第2のカメラ群)によって撮影された画像より広い画角の画像を撮影することが好ましく、スタジアム300全体を撮影することがより好ましい。なお、第3のカメラ群がスタジアム300全体を撮影する場合、第3のカメラ群のカメラの注視点をスタジアム300のほぼ中心に設定することが好ましい。その場合、テクスチャ生成部125は、前景生成システム110A、110Bのカメラ群によって撮影された画像に加えて、第3の撮影システムの第3のカメラ群によって撮影された画像をさらに用いて背景モデルに張り付ける背景テクスチャ画像を生成する。また、テクスチャ生成部125は、前記第3のカメラ群によって撮影された前記画像を、前景生成システム110A、110Bの第1、第2のカメラ群によって撮影された前記画像よりも高い比重で前記テクスチャ画像を生成してもよい。これにより、前景生成システム110A、110Bの第1、第2のカメラ群によって撮影された前記画像のみに基づく場合と比べて、より適切な背景画像を生成できる。
また、撮影システム111は歪みパラメータを用いて、画像の歪みを補正する歪み補正部を前景生成サーバ113、または背景生成システム120に有し、撮影した画像データを歪み補正部によって補正処理を行ってもよい。また、歪み補正部は撮影システム111に有していてもよい。
また、本実施形態では、画像データを撮影システム111から前景生成サーバ113及び背景生成システム120に送信しているが、画像処理システム100が集約サーバを有し、集約サーバにてデータを集約するような形態であってもよい。そして、集約サーバ(振り分け手段)は、当該集約サーバに集約したデータを前景生成システム110Aの前景生成サーバ113と、前景生成システム110Bの前景生成サーバ113と、背景生成システム120とに振り分けてもよい。具体的には、集約サーバは、前景生成システム110Aの前景生成サーバ113に当該前景生成システム110Aの撮影システム111の画像を振り分けてもよい。集約サーバは、前景生成システム110Bの前景生成サーバ113に当該前景生成システム110Bの撮影システム111の画像を振り分けてもよい。集約サーバは、背景生成システム120に前景生成システム110Aの撮影システム111の画像と前景生成システム110Bの撮影システム111の画像を振り分けてもよい。
また、画像処理システム100が、ストレージを有するデータベースシステムを備え、前景生成システム110、背景生成システム120、レンダリングシステム130に対してデータベースを介して必要なデータを送受信してもよい。ストレージは、カメラパラメータや背景モデルデータ、前景生成システム110で生成される前景画像データ、背景画像データや前景モデルデータ、背景生成システム120で生成される背景テクスチャ画像などを記憶するのに十分な大容量記憶装置とする。
[実施形態2]
本実施形態に係る画像処理システムについて、図9および図10を参照して説明する。
本実施形態では、背景画像データの合成について述べる。なお、本実施形態では、上述した実施形態の画像処理システムと同一の機器については同一の符号を付記しその説明を省略する。
図9は、本実施形態の画像処理システムの構成例を示すブロック図である。
本実施形態の画像処理システム(仮想視点画像生成システム)900は、上述の実施形態と同様、前景生成システム110A、前景生成システム110B、背景生成システム120、レンダリングシステム130を有する。
背景生成システム120は、パラメータ取得部121、モデル取得部122、背景画像生成部123、合成判断部124、テクスチャ生成部125に加え、重みづけ判断部901を有する。
重みづけ判断部901は、テクスチャ生成部125が背景メッシュモデル上にカメラ画像(背景画像データ)を射影変換によって投影した際に、メッシュモデル上に投影したカメラ画像(背景画像データ)を合成する重みづけを導出する。すなわち、重みづけ判断部901は、メッシュモデル上に投影したカメラ画像における重複する領域に関し、各カメラ画像の重みづけを導出する。重みづけ判断部901による重みづけ処理は、S216の背景テクスチャ画像を生成する際に実行される。
重みづけ判断部901による重みづけ処理について、図10を用いて説明する。
図10は、前景生成システム110Aおよび110Bの撮影範囲を示した模式図である。
重複領域1001は、前景生成システム110Aによる撮影範囲である第1の領域401と前景生成システム110Bによる撮影範囲である第2の領域502が重複する範囲である。言い換えると、重複領域1001は、前景生成システム110Aおよび110Bのいずれのシステムを用いても背景画像データを生成することが出来る範囲である。
画素1002は、背景となるメッシュモデル上にて、第1の領域401および第2の領域502が重複する重複領域1001における、ある一点を示している。
画素1002と注視点301の距離1003Aが長さLaであり、画素1002と注視点501の距離1003Bが長さLbであるとする。
このとき、画素1002に関し、前景生成システム110Aで生成される背景画像データの画素値Xaと前景生成システム110Bで生成される背景画像データの画素値Xbの2つを合成した画素値Xの数値を演算によって導出する。画素値Xの導出方法として、例えば下記のような数式を用いる。
Figure 2020067815
上記の数式を用いることで、注視点からの距離が近い画素の重みを重くすることができる。画素1002の場合、長さLaと比較して長さLbの方が小さく、画素値Xbの重みづけの方が画素値Xaの重みよりも大きくなる。
このように注視点からの距離を用いて重みづけをすることによって、カメラ画像(前景生成システムによるデジタル画像データ)の切り替わり部分において境界線が目立たないように徐々に重みを重くすることが出来る。
本実施形態では、画素値Xを上記数式(1)により導出したが、画素値Xの導出方法はこれに限定されない。例えば、数式(1)の範囲を正規化した値としてもよい。また画素値Xを求める際の画素値Xaおよび画素値Xbの合成の重みづけについては、距離1003Aおよび距離1003Bに基づいて求め、長さLaおよび長さLbのいずれか値の小さな方の重みづけが重くなるように導出されれば良い。
また、合成の重みについては、単純に平均値や中間値を用いる方法でもよい。
また、各前景生成システム110から取得したデジタル画像データについて画質の評価を行い、解像度の高さやコントラストの高さなどの評価を数値化し、その数値によって重みづけを行ってもよい。
また、前景生成システム110で撮影される撮影範囲の一部または全てにおいて、撮影に失敗した画素がある場合、それらの画素の重みを0または0に近い数値としてもよい。
以上、説明したように、本実施形態によれば、複数の撮影システムによるカメラ画像(デジタル画像データ)において重複領域がある場合に、重みづけ処理を行うことで、切り替えられるカメラ画像間の境界線の生成を抑制できる。
[実施形態3]
本実施形態に係る画像処理システムについて、図11および図12を参照して説明する。
本実施形態では、背景画像データの生成に於いて、生成範囲を指定する方法について述べる。なお、本実施形態では、上述した実施形態の画像処理システムと同一の機器については同一の符号を付記しその説明を省略する。
図11は、本実施形態の画像処理システムの構成例を示すブロック図である。
本実施形態の画像処理システム(仮想視点画像生成システム)1100は、上述の実施形態と同様、前景生成システム110A、前景生成システム110B、背景生成システム120、レンダリングシステム130を有する。
前景生成システム110Aの撮影システム111aは、撮像部112に加え、前景背景分離部(以下、分離部と記す)1101を有する。
背景生成システム120は、パラメータ取得部121、モデル取得部122、合成判断部124、テクスチャ生成部125に加え、範囲指定部(以下、指定部と記す)1102を有する。
分離部1101は、撮像部112でカメラによって撮影された画像を変換したデジタル画像データから前景画像と背景画像を分離して、前景画像データと背景画像データを生成する。このとき、背景画像生成部123は、後述の指定部1102によって指定される範囲については背景画像データの生成を行わない。
指定部1102は、分離部1101が生成する背景画像データの範囲を指定し、指定された範囲の背景画像データを受信する。受信した背景画像データは、テクスチャ生成部125に送られる。
図12は、画像処理システム1100による仮想視点画像生成処理のフローチャートである。図12(a)に前景生成システム110Aによる前景データの生成処理手順例のフローを示し、図12(b)に背景生成システム120による背景データの生成処理手順例のフローを示す。なお、ここでは前景生成システム110Aによる処理に関して説明するが、前景生成システム110Bでも、図12(a)と同様の処理が行われる。レンダリングシステム130による仮想視点画像の生成処理手順例を示すフローは、図2(c)に示すフローと同様であり、その説明を省略する。
分離部1101は、撮像部112から取得したデジタル画像データ(撮影データ)を前景画像と背景画像に分離し、前景画像のみを抽出した前景画像データを生成し、生成した前景画像データを前景形状推定部116に提供する(S1201)。
分離部1101は、撮像部112から取得した撮影データを前景画像と背景画像に分離し、後述のS1211で指定部1102によって指定された範囲に従って、背景画像データを生成する(S1202)。生成した背景画像データは、指定部1102に送信される。
指定部1102は、S211で設定された前景生成システム110A、110Bの使用設定に従い、重複領域について前景生成システム110Aまたは110Bのいずれで生成するかを決定する(S1211)。例えば、指定部102は、仮想視点の位置及び方向に応じて前景生成システム110Aまたは110Bのうち何れか一方を選択する。
指定部1102による背景画像データにおける範囲の指定方法について、図10の重複領域1001を用いて説明する。
重複領域1001は、前景生成システム110Aまたは110Bのいずれでも背景画像データを生成することが出来るため、どちらか一方のみから背景画像データが生成されればよい領域である。実施形態2と同様に、画素1002について重みづけ判断部901で重みづけの演算を行うと、前景生成システム110Aに対応するカメラで得られる画像に対する重みはLb/(La+Lb)となる。前景生成システム110Bに対応するカメラで得られる画像に対する重みはLa/(La+Lb)となる。このとき、La>Lbであるため、前景生成システム110Bで得られる画像の方の重みづけが前景生成システム110Aで得られる画像に対する重みづけと比べて重いことがわかる。指定部1102は、このようにして重みづけによる選択を行う。
指定部1102は、前景生成システム110Bを選択すると、前景生成システム110Aの撮影システム111a〜111zの画素1002に該当する箇所について、分離部1101に対し不要な画素値として指定する。
図13は、撮影システム111tについて、指定部1102によって背景画像データの生成範囲の指定が行われる様子を示した図である。図13(a)に撮影システム111tの撮影範囲と画素の位置との関係を示し、図13(b)に撮影システム111tの撮影範囲と非画像生成範囲との関係を示す。
図13(a)に示すように、画素1002は、撮影中心を注視点301に設定した撮影システム111tがスタジアム300を撮影した撮影範囲である領域400で示される範囲内に位置づけられている。図13(a)のように撮影範囲の領域400の中に含まれる画素1002は分離部1101で生成される背景画像データの生成範囲から外される。
重複領域1001の各画素について同様の処理を行うと、図13(b)の非画像生成範囲に示す領域1301について背景画像データの生成が行われず、これによって背景画像データを背景生成システムに転送する画像データの転送サイズを減らすことが出来る。
指定部1102は、分離部1101から背景画像データを受信する(S1212)。例えば、ここでは、撮影システム111aの分離部1101からの背景画像データを受信する。
指定部1102は、分離部1101から受信した画像データが、合成範囲のデータ全てを受信したか否かを判断する(S1213)。すなわち、指定部1102は、合成判断部124で背景画像データを生成するデータとして設定されている前景生成システム110Aおよび110Bの全てからデータを取得したか否かを判断する。指定部1102は、全てのデータを受信したと判断すると(S1213でYES)、処理をS1214に移行する。指定部1102は、全てのデータを受信していないと判断すると(S1213でNO)、処理をS1212に返し、S1212とS1213の処理を繰り返す。例えば、先のS1212では撮影システム111aのデジタル画像データを受信しているが、その他についてはデジタル画像データを受信していない場合、処理をS1212に返しデジタル画像データを受信するまでを待つことになる。その後、S1212で残る前景生成システムの撮影システム全てから前景生成システムのデジタル画像データの受信が完了すると、指定部1102は、S1213において合成判断部124に設定された全ての背景画像データが揃っていると判断する。この判断結果に基づき、指定部1102は、処理をS1214に移行する。
テクスチャ生成部125は、指定部1102から取得した背景画像データを、モデル取得部122から取得した背景モデルデータに対し、パラメータ取得部121から取得したカメラパラメータを用いて射影変換を行って投影する。投影した画像を合成することで背景テクスチャ画像を生成する(S1214)。
以上、重複領域の背景画像データの生成範囲について説明を行ってきたが、本実施形態はこれに限定されるものではない。
前述した他の重みづけの優先順位方法によって、最も重みづけの高いものが選択されるようにしてもよい。
ユーザ操作によって注視点の選択が行われた場合、重複領域で選択した注視点の撮影範囲を全て選択し、重複している他の注視点については使用しないなどとしてもよい。また、注視点の優先順位をユーザが指定し、指定した優先順位に従って背景画像データの生成範囲を指定してもよい。
続いて、本実施形態を構成する各装置のハードウェア構成について、より詳細に説明する。上述の通り、本実施形態では、前景生成サーバ113がFPGA及び/又はASICなどのハードウェアを実装し、これらのハードウェアによって、上述した各処理を実行する場合の例を中心に説明した。それは前景生成システム110内の撮影システム111、背景生成システム120、レンダリングシステム130についても同様である。しかしながら、上記装置のうち、少なくとも何れかが、例えば、CPU、DSPなどを用い、ソフトウェア処理によって本実施形態の処理を実行するようにしても良い。
図14は、図1に示した機能構成をソフトウェア処理によって実現するための、前景生成サーバ113のハードウェア構成例を示す図である。なお、撮影システム111、背景生成システム120、レンダリングシステム130などの装置も、図14のハードウェア構成となりうる。前景生成サーバ113は、CPU1131と、RAM1132と、ROM1133と、二次記憶装置1134と、入出力インタフェース1135とを有する。これらの構成要素は、バスによって接続され、構成要素間でデータを送受信することが可能である。
CPU1131は、RAM1132をワークメモリとして用いて、ROM1133や二次記憶装置1134に格納されたプログラムを実行し、システムバスを介して前景生成サーバ113の各構成要素を統括的に制御する。これにより、図1に示したモジュールが実現されたり、図2(a)に示した処理が実行されたりする。
二次記憶装置1134は、前景生成サーバ113で取り扱われる種々のデータが格納される装置であり、例えば、HDD、光ディスクドライブ、フラッシュメモリ等が用いられる。CPU1131は、システムバスを介して、二次記憶装置1134へのデータの書き込みと二次記憶装置1134に格納されたデータの読出しとを行う。入出力インタフェース1135は、前景生成サーバ113とその外部の装置との間におけるデータの送受信を行う。以上が、本実施形態におけるシステム構成の内容である。
なお、例えば前景生成サーバ113の処理のうち一部をFPGAで行い、別の一部の処理を、CPUを用いたソフトウェア処理によって実現するようにしても良い。また、図14に示した前景生成サーバ113の各構成要素は、単一の電子回路で構成されていてもよいし、複数の電子回路で構成されていてもよい。例えば、前景生成サーバ113は、CPU1131として動作する電子回路を複数備えていてもよい。これら複数の電子回路がCPU1131としての処理を並行して行うことで、前景生成サーバ113の処理速度を向上することができる。
画像処理システム100内の他の装置についても同様である。また、上述の実施形態は、画像処理システム100が競技場やコンサートホールなどの施設に設置される場合の例を中心に説明した。施設の他の例としては、例えば、遊園地、公園、競馬場、競輪場、カジノ、プール、スケートリンク、スキー場、ライブハウスなどがある。また、各種施設で行われるイベントは、屋内で行われるものであっても屋外で行われるものであっても良い。また、本実施形態における施設は、一時的に(期間限定で)建設される施設も含む。
[その他の実施形態]
また、前景生成サーバ113や背景生成システム120、レンダリングシステム130は、内部に物理的に複数のサーバを有し、論理的に1台となるような構成であってもよい。
また、上述した実施形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現してもよい。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としてはどのような記憶媒体を用いてもよく、例えばハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリなどを用いてもよい。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施形態の機能が実現されてもよい。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施形態の機能が実現されてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100・・・画像処理システム
110A、110B・・・前景生成システム
120・・・背景生成システム

Claims (20)

  1. 仮想視点画像を生成する画像処理装置であって、
    第一の位置に向けて設置された1以上のカメラで構成される第一のカメラ群によって撮影された画像に基づいて前景画像を生成する第一の前景生成手段と、
    前記第一の位置とは異なる第二の位置に向けて設置された1以上のカメラで構成される第二のカメラ群によって撮影された画像に基づいて前景画像を生成する第二の前景生成手段と、
    前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて生成される背景モデルに対するテクスチャ画像と、当該背景モデルと、に基づいて前記仮想視点画像の背景画像を生成する背景生成手段と
    を有する、ことを特徴とする画像処理装置。
  2. 前記背景生成手段は、前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて前記背景モデルに対する前記テクスチャ画像を生成し、生成したテクスチャ画像を当該背景モデルに合成することで前記仮想視点画像の前記背景画像を生成する
    ことを特徴とする、請求項1に記載の画像処理装置。
  3. 前記第一および前記第二の前景生成手段のうち何れか一方の前景生成手段を選択する選択手段と、
    前記選択手段により選択された前景生成手段によって生成される前景画像と、前記背景生成手段によって生成された前記背景画像とに基づいて前記仮想視点画像を生成する画像生成手段をさらに有する
    ことを特徴とする、請求項1または2に記載の画像処理装置。
  4. 前記画像生成手段は、前記選択手段により選択された前景生成手段によって生成される前景画像と、前記背景生成手段によって生成された前記背景画像とを合成した前記仮想視点画像を生成する
    ことを特徴とする、請求項3に記載の画像処理装置。
  5. 前記選択手段は、仮想視点の位置及び方向に応じて、前記第一および前記第二の前景生成手段のうち何れか一方を選択する
    ことを特徴とする、請求項3または4に記載の画像処理装置。
  6. 前記背景生成手段は、前記選択手段によって選択された前景生成手段に対応するカメラ群の前記画像に基づいて生成される前記テクスチャ画像を、前記選択手段によって選択されなかった前景生成手段に対応するカメラ群の前記画像に基づいて生成される前記テクスチャ画像よりも高い比重で前記背景モデルに合成する
    ことを特徴とする、請求項3から5の何れか一項に記載の画像処理装置。
  7. 前記第一の前景生成手段には前記第一のカメラ群の前記画像、前記第二の前景生成手段には前記第二のカメラ群の前記画像、前記背景生成手段には前記第一および前記第二のカメラ群の前記画像を振り分ける振り分け手段を有することを特徴とする、請求項1から6の何れか一項に記載の画像処理装置。
  8. 前記第一または前記第二のカメラ群に属するカメラは、撮影した前記画像から前景画像と背景画像を分離して生成する分離手段を有し、
    前記背景生成手段は、前記分離手段で生成した前記背景画像に基づいて前記背景モデルに対する前記テクスチャ画像を生成する
    ことを特徴とする、請求項1から5の何れか一項に記載の画像処理装置。
  9. 前記第一および前記第二の位置と異なる第三の位置に向けて設置された1以上のカメラで構成される第三のカメラ群をさらに有し、
    前記背景生成手段は、前記第一および前記第二のカメラ群によって撮影された前記画像に加えて、前記第三のカメラ群によって撮影された画像に基づいて生成される前記背景モデルに対する前記テクスチャ画像にさらに基づいて前記背景画像を生成する
    ことを特徴とする、請求項1から8の何れか一項に記載の画像処理装置。
  10. 前記背景生成手段は、前記第三のカメラ群の前記画像に基づいて生成される前記テクスチャ画像を、前記第一および前記第二のカメラ群の前記画像に基づいて生成される前記テクスチャ画像よりも高い比重で前記背景モデルに合成することを特徴とする、請求項9に記載の画像処理装置。
  11. 前記第三のカメラ群は、前記第一および前記第二のカメラ群によって撮影された前記画像より広い画角の画像を撮影する
    ことを特徴とする、請求項9または10に記載の画像処理装置。
  12. 仮想視点画像を生成する画像処理装置であって、
    異なる位置に向けてそれぞれ設置されたカメラで構成されるカメラ群が複数あり、
    同一の位置に対応する前記カメラ群によって撮影された画像に基づいて前景画像を生成する前景生成手段と、
    前記複数のカメラ群によって撮影された前記画像に基づいて生成される背景モデルに対するテクスチャ画像と、当該背景モデルと、に基づいて前記仮想視点画像の背景画像を生成する背景生成手段と
    を有する、ことを特徴とする画像処理装置。
  13. 前記背景生成手段は、前記複数のカメラ群によって撮影された前記画像に基づいて前記背景モデルに対する前記テクスチャ画像を生成し、生成したテクスチャ画像を当該背景モデルに合成することで前記仮想視点画像の背景画像を生成する
    ことを特徴とする、請求項12に記載の画像処理装置。
  14. 前記前景生成手段は、前記異なる位置に対応して複数有り、
    前記複数の前景生成手段のうち何れか一つの前景生成手段を選択する選択手段と、
    前記選択手段により選択された前記前景生成手段によって生成される前記前景画像と、前記背景生成手段によって生成された背景画像とに基づいて前記仮想視点画像を生成する画像生成手段をさらに有する
    ことを特徴とする、請求項12または13に記載の画像処理装置。
  15. 前記画像生成手段は、前記選択手段により選択された前記前景生成手段にて生成される前景画像と、前記背景生成手段にて生成された背景画像とを合成した前記仮想視点画像を生成する
    ことを特徴とする、請求項14に記載の画像処理装置。
  16. 前記選択手段は、仮想視点の位置及び方向に応じて、前記複数の前景生成手段のうち何れか一つを選択する
    ことを特徴とする、請求項14または15に記載の画像処理装置。
  17. 仮想視点画像を生成する画像処理方法であって、
    第一の位置に向けて設置された1以上のカメラで構成される第一のカメラ群によって撮影された画像に基づいて前景画像を生成する第一の前景生成ステップと、
    前記第一の位置とは異なる第二の位置に向けて設置された1以上のカメラで構成される第二のカメラ群によって撮影された画像に基づいて前景画像を生成する第二の前景生成ステップと、
    前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて生成される背景モデルに対するテクスチャ画像と、当該背景モデルと、に基づいて前記仮想視点画像の背景画像を生成する背景生成ステップと
    を有する、ことを特徴とする画像処理方法。
  18. 前記背景生成ステップでは、前記第一および前記第二のカメラ群によって撮影された前記画像に基づいて前記背景モデルに対する前記テクスチャ画像を生成し、生成したテクスチャ画像を当該背景モデルに合成することで前記仮想視点画像の前記背景画像を生成する
    ことを特徴とする、請求項17に記載の画像処理方法。
  19. 前記第一および前記第二の前景生成ステップのうち何れか一方の前景生成ステップを選択する選択ステップと、
    前記選択ステップにて選択された前記前景生成ステップによって生成される前景画像と、前記背景生成ステップによって生成された前記背景画像とに基づいて前記仮想視点画像を生成する画像生成ステップをさらに有する
    ことを特徴とする、請求項18に記載の画像処理方法。
  20. コンピュータを、請求項1から11の何れか一項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018200042A 2018-10-24 2018-10-24 画像処理装置、画像処理方法およびプログラム Active JP7233881B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018200042A JP7233881B2 (ja) 2018-10-24 2018-10-24 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018200042A JP7233881B2 (ja) 2018-10-24 2018-10-24 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020067815A true JP2020067815A (ja) 2020-04-30
JP7233881B2 JP7233881B2 (ja) 2023-03-07

Family

ID=70390415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018200042A Active JP7233881B2 (ja) 2018-10-24 2018-10-24 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7233881B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023015868A1 (zh) * 2021-08-13 2023-02-16 华为技术有限公司 图像背景生成方法及装置、计算机可读存储介质
GB2612418A (en) * 2021-08-27 2023-05-03 Mo Sys Engineering Ltd Rendering image content

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212593A (ja) * 2016-05-25 2017-11-30 キヤノン株式会社 情報処理装置、画像処理システム、情報処理方法、及び、プログラム
JP2018092580A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 画像生成装置および方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212593A (ja) * 2016-05-25 2017-11-30 キヤノン株式会社 情報処理装置、画像処理システム、情報処理方法、及び、プログラム
JP2018092580A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 画像生成装置および方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023015868A1 (zh) * 2021-08-13 2023-02-16 华为技术有限公司 图像背景生成方法及装置、计算机可读存储介质
GB2612418A (en) * 2021-08-27 2023-05-03 Mo Sys Engineering Ltd Rendering image content

Also Published As

Publication number Publication date
JP7233881B2 (ja) 2023-03-07

Similar Documents

Publication Publication Date Title
US20220030215A1 (en) Information processing apparatus, image generation method, control method, and storage medium
KR102153985B1 (ko) 가상 시점 화상을 생성하는 장치, 시스템, 방법, 및 비일시적 컴퓨터 판독가능 기억 매체
JP6429829B2 (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
JP6482498B2 (ja) 制御装置、制御方法、及び、プログラム
US11190673B2 (en) Control device, control method, and program
US10812770B2 (en) Image processing system, image processing apparatus, image processing method, and program
WO2019111817A1 (ja) 生成装置、生成方法及びプログラム
JP7187182B2 (ja) データ生成装置、方法およびプログラム
JP2017211827A (ja) 情報処理装置、制御方法、及び、プログラム
JP7042571B2 (ja) 画像処理装置およびその制御方法、プログラム
US20200058167A1 (en) Generation device, generation method and storage medium for three-dimensional model
JP2020086983A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2019022151A (ja) 情報処理装置、画像処理システム、制御方法、及び、プログラム
JP6403862B1 (ja) 3次元モデルの生成装置、生成方法及びプログラム
JP7233881B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2019134428A (ja) 制御装置、制御方法、及び、プログラム
JP2019103126A (ja) カメラシステム、カメラ制御装置、カメラ制御方法及びプログラム
JP2020042407A (ja) 情報処理装置、情報処理方法及びプログラム
CN113963094A (zh) 深度图及视频处理、重建方法、装置、设备及存储介质
JP2019050593A (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
JP2019075740A (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP6759375B2 (ja) 仮想視点画像を生成するシステム、方法及びプログラム
WO2023131327A1 (zh) 视频合成方法、装置及系统
JP2019118042A (ja) 画像処理装置、画像処理方法及びプログラム
JP2023184358A (ja) 画像処理システム、画像処理システムの制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230222

R151 Written notification of patent or utility model registration

Ref document number: 7233881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151