JP7190849B2 - 画像生成装置、画像生成装置の制御方法及びプログラム - Google Patents

画像生成装置、画像生成装置の制御方法及びプログラム Download PDF

Info

Publication number
JP7190849B2
JP7190849B2 JP2018170896A JP2018170896A JP7190849B2 JP 7190849 B2 JP7190849 B2 JP 7190849B2 JP 2018170896 A JP2018170896 A JP 2018170896A JP 2018170896 A JP2018170896 A JP 2018170896A JP 7190849 B2 JP7190849 B2 JP 7190849B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
information
coloring
map information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018170896A
Other languages
English (en)
Other versions
JP2020042666A (ja
Inventor
英人 榊間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018170896A priority Critical patent/JP7190849B2/ja
Publication of JP2020042666A publication Critical patent/JP2020042666A/ja
Application granted granted Critical
Publication of JP7190849B2 publication Critical patent/JP7190849B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像生成装置、画像生成装置の制御方法及びプログラムに関し、特に、複数のカメラから取得した撮影画像を用いて仮想視点画像を生成する技術に関する。
近年、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該同期撮影により得られた多視点画像を用いて仮想視点画像を生成する技術が注目されている。多視点画像に基づく仮想視点画像の生成及び閲覧は、複数のカメラが撮影した画像をサーバなどの画像生成装置に集約し、当該画像生成装置により、三次元モデル生成、レンダリングなどの処理を施し、ユーザ端末に画像を送付することで実現できる。
画像生成装置で実施される三次元モデルの生成方法として、Visual Hullと呼ばれる形状推定方法が知られている。Visual Hull等によって生成された三次元モデルは、モデルを形成する空間上の点やボクセルによって表現される。これらの点やボクセルに色情報を持たせるため、複数のカメラによる撮影画像を使用して、点やボクセル毎の色付け処理を行う。
特許文献1は、仮想視点情報と複数のカメラの視点情報との位置関係に基づいて、仮想視点画像を生成する際に使用するカメラを選択することを開示している。
ここで、三次元モデルの構成要素である点やボクセルに仮想視点の位置情報を利用して色付けを行う場合、カメラが離散的に配置されている関係上、仮想視点の位置に応じて、複数の撮影画像を選択した上で、それぞれの撮影画像の色を混合して着色する混色処理を行うことが考えられる。
特開2011-228845号公報
しかしながら、仮想視点画像の生成において複数の撮影画像を用いた混色処理を常に行うと、仮想視点の位置などによってはコントラストの低下や解像感の低下が生じ、高品質な仮想視点画像を生成できない場合がある。
本発明は、上記の課題に鑑みてなされたものであり、高品質な仮想視点画像を生成するための技術を提供することを目的とする。
上記の目的を達成する本発明に係る画像生成装置は、
複数のカメラにより撮影された画像に基づいて生成されたオブジェクトの三次元モデルを用いて仮想視点に応じた仮想視点画像を生成する画像生成装置であって、
前記仮想視点の情報を取得する取得手段と、
前記取得手段により取得された前記仮想視点の情報に基づいて、前記三次元モデルの構成要素の色付け方式を決定する決定手段と、
前記決定手段により決定された色付け方式で前記構成要素への色付け処理を実施する処理手段と、
前記処理手段による色付け処理が行われた前記三次元モデルに基づいて前記仮想視点に応じた仮想視点画像を生成する生成手段と、
を備え
前記仮想視点の情報は、前記仮想視点の位置情報及び速度情報を含み、
前記決定手段は、前記複数のカメラの画像による混色を行う領域を示す複数のマップ情報を取得し、前記仮想視点の速度情報に基づいて、前記複数のマップ情報の中からマップ情報を選択し、前記仮想視点の位置情報と、前記選択されたマップ情報とに基づいて、前記色付け方式を決定し、
前記複数のマップ情報は、前記混色を行う領域が相対的に広い第1のマップ情報と、前記混色を行う領域が相対的に狭い第2のマップ情報とを含み、
前記決定手段は、前記仮想視点の速度が閾値以上である場合、前記第1のマップ情報を選択し、前記仮想視点の速度が閾値未満である場合、前記第2のマップ情報を選択することを特徴とする。
本発明によれば、高品質な仮想視点画像を生成することができる。
実施形態1に係る画像生成システムの構成例を示す図。 (a)実施形態1に係る画像生成装置の機能構成例を示す図、(b)実施形態1に係る画像生成装置のハードウェア構成例を示す図。 実施形態1に係る画像生成装置が実施する全体処理の手順を示すフローチャート。 実施形態1に係る色付け処理の内容を説明するための模式図。 実施形態1に係る色付け処理の内容を説明するための模式図。 実施形態1に係る色付け方式の決定処理の手順を示すフローチャート。 実施形態2に係る色付け処理の内容を説明するための模式図。 実施形態2に係る色付け方式の決定処理の手順を示すフローチャート。 実施形態3に係る画像生成装置の機能構成例を示す図。 実施形態3に係る色付け処理の内容を説明するための模式図。 実施形態3に係る色付け方式の決定処理の手順を示すフローチャート。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(実施形態1)
<画像生成システムの構成>
図1を参照して、本実施形態に係る画像生成システムの構成例を説明する本実施形態に係る画像生成システムは、競技場(スタジアム)やコンサートホールなどの施設に複数のカメラ及びマイクを設置し、撮影及び集音を行うシステムである。画像生成システム100は、撮影装置101、スイッチングハブ121、画像生成装置122、コントローラ123、エンドユーザ端末126、及びタイムサーバ127を有する。撮影装置101は、センサシステム110a―センサシステム110zの複数のセンサシステムの集合である。
コントローラ123は、制御ステーション124と仮想カメラ操作UI125とを備えている。制御ステーション124は、画像生成システム100を構成する各構成要素に対して、ネットワーク180a-180z、及び190a-190cを通じて動作状態の管理及びパラメータ設定制御などを行う。ここで、ネットワークはEthernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサネット)や10GbEでもよいし、インターコネクトInfiniband、産業用イーサーネット等を組合せて構成されてもよい。また、これらに限定されず、他の種別のネットワークであってもよい。
まず、センサシステム110a-センサシステム110zの26セットの画像及び音声を、それぞれのセンサシステムから画像生成装置122へ送信する動作を説明する。本実施形態の画像生成システム100では、センサシステム110a-センサシステム110zが、それぞれスイッチングハブ121を介して画像生成装置122と接続される。
本実施形態において、特別な説明がない場合は、センサシステム110aからセンサシステム110zまでの26セットのシステムを区別せずにセンサシステム110と記載する。
各センサシステム110内の装置についても同様に、特別な説明がない場合は区別せず、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120と記載する。なお、センサシステムの台数として26セットと記載しているが、あくまでも一例であり、台数をこれに限定するものではない。
なお、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の画像生成システム100は、静止画及び動画の何れに対しても処理が可能である。また、本実施形態では、画像生成システム100により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声とが含まれる例を中心に説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また、例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。
前述したように、センサシステム110a-センサシステム110zは、それぞれ1台ずつのカメラ112a-カメラ112zを有する。即ち、画像生成システム100は、オブジェクトを複数の方向から撮影するための複数のカメラを有する。
本実施形態における接続形態としては、各センサシステム110a-110zがスイッチングハブ121に接続されて、スイッチングハブ121を経由してセンサシステム110間のデータ送受信を行う、スター型のネットワークを構成する。
本実施形態では、センサシステム110aは、マイク111a、カメラ112a、雲台113a、外部センサ114a、及びカメラアダプタ120aを有する。なお、この構成に限定するものではなく、少なくとも1台のカメラアダプタ120aと、1台のカメラ112a又は1台のマイク111aを有していれば良い。また、例えば、センサシステム110aは、1台のカメラアダプタ120aと、複数のカメラ112aとで構成されてもよいし、1台のカメラ112aと複数のカメラアダプタ120aとで構成されてもよい。即ち、画像生成システム100内の複数のカメラ112と複数のカメラアダプタ120とはN対M(NとMは共に1以上の整数)で対応する。また、センサシステム110aは、マイク111a、カメラ112a、雲台113a、及びカメラアダプタ120a以外の装置を含んでいてもよい。また、カメラ112とカメラアダプタ120とが一体となって構成されていてもよい。
本実施形態では、センサシステム110b-110zについては、センサシステム110aと同様の構成なので説明を省略する。なお、センサシステム110aと同じ構成に限定されるものではなく、それぞれのセンサシステム110が異なる構成であってもよい。マイク111aで集音された音声と、カメラ112aで撮影された画像とは、カメラアダプタ120aを介してスイッチングハブ121へ伝送される。
なお、本実施形態では、カメラ112と、カメラアダプタ120とが分離された構成にしているが、同一筺体で一体化されていてもよい。即ち、カメラアダプタ120がカメラ112の中に一体化されてもよい。その場合、マイク111は、一体化されたカメラ112に内蔵されてもよいし、カメラ112の外部に接続されていてもよい。
画像生成装置122は、センサシステム110から取得したデータに基づいて、仮想視点画像を生成する処理を行う。
タイムサーバ127は、時刻及び同期信号を配信する機能を有し、スイッチングハブ121を介してセンサシステム110a-センサシステム110zに時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ120a-カメラアダプタ120zは、カメラ112a-カメラ112zを時刻と同期信号とに基づいてGenlockさせ、画像フレーム同期を行う。即ち、タイムサーバ127は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像生成システム100は、同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。
なお、本実施形態では、タイムサーバ127が複数のカメラ112の時刻同期を管理するものとするが、これに限らず、時刻同期のための処理を、各カメラ112又は各カメラアダプタ120が独立して行ってもよい。
画像生成装置122によって生成された仮想視点画像は、エンドユーザ端末126へ送信され、エンドユーザ端末126を操作するユーザは視点の指定に応じた画像閲覧及び音声視聴を行うことができる。なお、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を中心に説明するが、必ずしも音声データが含まれていなくても良い。また、画像生成装置122は、仮想視点画像を、H.264やHEVCに代表される標準技術により圧縮符号化した上で、MPEG-DASHプロトコルを使ってエンドユーザ端末126へ送信してもよい。また、仮想視点画像は、非圧縮でエンドユーザ端末126へ送信されてもよい。圧縮符号化を行う前者はエンドユーザ端末126としてスマートフォンやタブレットを想定しており、後者は非圧縮画像を表示可能なディスプレイを想定している。すなわち、エンドユーザ端末126の種別に応じて画像フォーマットが切り替え可能である。
また、画像の送信プロトコルはMPEG-DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いても良い。
制御ステーション124は、仮想視点画像を生成する対象のスタジアム等の三次元モデルを画像生成装置122へ送信する。さらに、制御ステーション124は、カメラ設置時にキャリブレーションを実施する。具体的には、撮影対象のフィールド上にマーカを設置し、各カメラ112の撮影画像により、各カメラの世界座標における位置と向き、および焦点距離を算出する。該算出された各カメラの位置、向き、焦点距離の情報は、画像生成装置122へ送信される。送信された三次元モデルおよび各カメラの情報は、画像生成装置122が仮想視点画像を生成する際に使用される。
仮想カメラ操作UI125は、ユーザ操作に従って仮想視点の位置等を移動可能なユーザインタフェースであり、ユーザの操作内容(指定された仮想視点の情報)を、画像生成装置122へ送信する。画像生成装置122は、指定された仮想視点での仮想視点画像を生成し、エンドユーザ端末126へ送信する。
<画像生成装置の機能構成>
次に、図2(a)を参照して、本実施形態に係る画像生成装置122の機能構成を説明する。画像生成装置122は、撮影画像入力部201、通信制御部202、三次元モデル生成部203、色付け処理部204、仮想視点画像生成部205、画像出力部206、仮想視点受信部207、仮想視点情報取得部208、色付け方式決定部209、切替制御部210、及びカメラ情報取得部211を備えている。
撮影画像入力部201は、図1のスイッチングハブ121を介して、図1のセンサシステム110から送信される画像及び音声のデータを入力する入力処理部である。撮影画像入力部201により入力されたデータは、三次元モデル生成部203へ送信される。
通信制御部202は、図1の撮影装置101と、制御ステーション124との通信を制御する処理部である。通信制御部202は、制御ステーション124からスタジアムの三次元モデルデータ及び各カメラの設置に関する情報などを取得する。
三次元モデル生成部203は、撮影画像入力部201により入力される撮影画像に基づいて、三次元モデルを生成する。三次元モデルの生成は、例えばVisual Hullなどの形状推定方法により実行される。本発明においては、三次元モデルは複数の点の集合で構成されるものとして以降の説明を行う。ただし、三次元モデルの形式や生成方法はこれに限定されず、例えば三次元モデルが複数のメッシュの集合により構成されてもよい。
色付け処理部204は、三次元モデル生成部203により生成された三次元モデルに対して、撮影画像を使用して色付け処理を行う処理部である。色付け処理部204は、三次元モデルを構成する構成要素である点毎に撮影画像を選択し、撮影画像から適切な画素値を取得して色付けを行う。なお、三次元モデルがメッシュにより構成される場合、色づけ処理部204は、三次元モデルの構成要素であるメッシュごとに色づけを行ってもよい。
仮想視点画像生成部205は、三次元モデル生成部203により生成された三次元モデルの情報を利用して、仮想視点に基づいて仮想視点画像を生成する処理部である。仮想視点画像は、例えば、三次元空間に配置した三次元モデルの情報を、仮想視点へ投影することにより生成する。
画像出力部206は、仮想視点画像生成部205により生成された仮想視点画像を、映像としてエンドユーザ端末126へ出力する処理を行う。エンドユーザ端末126に応じた映像フォーマットの変換処理は、画像出力部206により実施される。仮想視点受信部207は、仮想カメラ操作UI125の操作内容(仮想視点の情報)を受信し、仮想視点情報取得部208へ送出する。
仮想視点情報取得部208は、仮想視点受信部207から取得した仮想視点の情報から、仮想視点の位置情報を取得する。また、仮想視点情報取得部208は、過去の仮想視点の情報を記録しており、仮想視点の遷移状態を示す仮想視点の動き情報を併せて取得する。
色付け方式決定部209は、仮想視点情報取得部208により取得された仮想視点の情報(位置情報、動き情報)と、カメラ情報取得部211から取得した、画像を撮影したカメラのカメラ情報とに基づいて、色付方式を決定する。
切替制御部210は、色付け方式決定部209により決定された色付け方式に基づいて、色付け処理部204が実施する色付け処理の色付け方式を切り替える制御を行う。
カメラ情報取得部211は、通信制御部202を介して、制御ステーション124から送出される、撮影に使用したカメラ情報を取得する。ここで、カメラ情報とは、撮影に使用したカメラの台数や配置情報である。
<画像生成装置のハードウェア構成>
続いて、図2(b)を参照して、本実施形態に係る画像生成装置122のハードウェア構成の一例を説明する。画像生成装置122は、CPU2001、ROM2002、RAM2003、記憶装置2004、バス2005を備え、入力装置2006と接続されている。
CPU2001は、本実施形態に係る画像生成装置122の上述の機能ブロックによる各種動作を制御する。その制御内容は、後述するROM2002やRAM2003上のプログラムによって指示される。また、CPU2001は、複数の計算機プログラムを並列に動作させることもできる。ROM2002は、CPU2001による制御の手順を記憶させた計算機プログラムやデータを格納している。RAM2003は、CPU2001が処理するための制御プログラムを格納するとともに、CPU2001が各種制御を実行する際の様々なデータの作業領域を提供する。ROM2002やRAM1003などの記録媒体に格納されたプログラムコードの機能は、CPU2001が読み出して実行することによって実現されるが、記録媒体の種類は問われない。
記憶装置2004は、さまざまなデータ等を記憶することができる。記憶装置2004は、ハードディスクやフロッピーディスク、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリカード等の記録媒体と、当該記録媒体を駆動して情報を記録するドライブとを有する。保管された計算機プログラムやデータはキーボード等の指示や、各種計算機プログラムの指示により、必要な時にRAM2003上に呼び出される。
バス2005は、各構成要素と接続されているデータバスなどであり、各構成要素間の通信を実現し、情報のやり取りを高速に実現するためのものである。入力装置2006は、ユーザによる各種入力環境を提供する。各種入力操作環境を提供するものとして、キーボードやマウス等が考えられるが、タッチパネル、スタイラスペン等であってもよい。本実施形態では、入力装置2006は仮想カメラ操作UI125に対応している。なお、以上述べてきた構成は一例であり、説明した構成に限定されるものでない。
<処理>
続いて、図3のフローチャートを参照して、実施形態1に係る色付け処理の手順を説明する。ステップS301において、仮想視点情報取得部208は、仮想視点情報を取得する。そして、カメラ情報取得部211は、カメラ情報を取得する。ステップS302において、色付け方式決定部209は、仮想視点情報取得部208で取得された仮想視点情報とカメラ情報取得部211で取得されたカメラ情報とに基づいて仮想視点画像を生成する際の三次元モデルの点への色付け処理の方式を決定する。色付け方式の決定処理の詳細については後述する。
ステップS303において、切替制御部210は、色付け方式決定部209により決定された色付け方式へ切り替える処理を行う。ステップS304において、色付け処理部204は、切替制御部210により決定された色付け方式に基づいて、点の色付け処理を行う。
ステップS305において、色付け処理部204は、仮想視点画像を生成するのに必要となる全ての三次元モデルの構成点に対して色付け処理が完了したか否かを判定する。全ての点に対して色付け処理が完了した場合、処理を終了する。一方、全ての点に対して色付け処理が完了していない場合、別の点を選択してステップS304に戻る。
<色付け処理の内容>
次に、図4及び図5を参照して、本実施形態に係る色付け方式の決定処理の内容について説明する。本実施形態において、色づけ方式決定部209は、単一のカメラにより撮影された画像を用いて三次元モデルの構成点への色づけ処理を行う方式と、複数のカメラにより撮影された複数の画像を用いて三次元モデルの構成点への色づけ処理を行う方式の、何れの色づけ方式を適用するかを決定する。ただし色づけ方式の内容はこれに限定されず、例えば、撮影画像を用いずに予め定められた色を用いて三次元モデルへの色づけを行う方式が含まれていてもよい。
図4は、本実施形態に係る仮想視点画像を生成するためのカメラ配置、オブジェクトの位置、仮想カメラの位置を示す模式図である。図4は、鉛直上方から俯瞰した図を示している。図4において、401から404は、画像を撮影したカメラであり、一定間隔で配置されている。カメラ401からカメラ404までの撮影画像を使用してオブジェクト405の三次元モデルが生成される。生成された三次元モデルは点で表現される。406は、三次元モデルを構成する構成点である。
407、408は、異なる位置に配置される仮想カメラである。また、409は網掛け領域である。網掛け領域409は、複数のカメラの画像を用いて色付け処理を行う領域であることを示す。例えば、仮想カメラ407の位置から仮想視点画像を生成する場合は、カメラ402及びカメラ403により撮影された画像を用いて色付け処理を行う。複数のカメラを用いて色付けを行う際には、例えば、それぞれの画像の色を仮想カメラの位置情報に基づいて混色する。
同様に、仮想カメラ408の位置から仮想視点画像を生成する場合、カメラ403及びカメラ404により撮影された画像を用いて色付け処理を行う。しかし、仮想カメラ408はカメラ404の位置に近いため、混色を行わずにカメラ404の画像のみを利用した方が、高品質な仮想視点画像を生成できる可能性がある。
これに対して、図5は、本実施形態に係る仮想視点画像を生成するためのカメラ配置、オブジェクトの位置、仮想カメラの位置を示す別の模式図である。図5は、図4とは異なり、混色を行う網掛け領域508の位置が異なっている。図5のマップ情報では、オブジェクトと各カメラとを結ぶ線から所定範囲内の領域が混色を行わない第1領域として規定され、第1領域以外の領域が混色を行う第2領域(網掛け領域508)として規定されている。
図5において、501から504は、画像を撮影したカメラである。505はオブジェクトであり、506はオブジェクト505の三次元モデルを構成する点である。また、507は仮想カメラである。508は、網掛け領域である。網掛け領域508は、混色して色付けを行う領域である。混色して色付け処理を行う領域と、単一のカメラの撮影画像を利用して色付け処理を行う領域とを事前に分けて設定を行っておき、マップ情報として保持しておく。そして、マップ情報を用いて、仮想カメラの位置に応じて色付け方式を切り替える。仮想カメラ507は、網掛け領域508外に存在するため、単一のカメラ504の画像を利用して色付け処理を行う。この処理により、混色による色の変化を避け、より忠実な、色の解像感の高い仮想視点画像を生成することが可能となる。
<色付け方式の決定処理>
続いて、図5の模式図及び図6のフローチャートを参照して、ステップS302の色付け方式の決定処理の詳細を説明する。ステップS601において、色付け方式決定部209は、混色を行う領域であるか否かを示すマップ情報を取得する。マップ情報は、網掛け領域508のような、三次元空間上で混色を行うか否かを示すフラグ情報である。
ステップS602において、色付け方式決定部209は、図3のステップS301で取得された仮想視点情報と、ステップS601で取得されたマップ情報とに基づいて、当該仮想視点の位置とマップ情報とを比較する。
ステップS603において、色付け方式決定部209は、ステップS602の比較結果に基づいて、仮想視点の位置が混色を行う領域内に存在するか否かを判定する。仮想視点が混色を行う領域内に存在する場合、ステップS604へ進む。一方、仮想視点が混色を行う領域内に存在しない場合、ステップS605へ進む。
ステップS604において、色付け方式決定部209は、色付け方式を、複数のカメラの画像を用いた混色処理で色付けを行う色付け方式として決定する。ステップS605において、色付け方式決定部209は、色付け方式を、単一のカメラの画像を用いて色付けを行う色付け方式として決定する。即ち、混色を利用しない色付け方式に決定する。
以上説明したように、本実施形態では、仮想視点の位置情報に基づいて、オブジェクトの三次元モデルの各点への色付け方式を切り替える。具体的には、混色を行う領域と、混色を行わない領域とを予め設定しておき、仮想視点の位置がどちらの領域に含まれるかに応じて、混色を行う色付け方式に決定したり、混色を行わない色付け方式に決定したりする。
本実施形態によれば、混色を行わない色付け処理を実施することができるため、不要な混色を低減でき、色の解像感が維持された高品質な仮想視点画像を生成することが可能となる。
なお、本実施形態では、混色を行う領域と、混色を行わない領域と含むマップ情報を予め設定しておき、マップ情報を利用して色付け方式を切り替える例を説明したが、これに限らない。例えば、仮想視点の位置に基づいて、複数のカメラの各々から仮想視点までの距離に応じた重み係数を用いて、混色に利用するカメラの画像の割合を変化させてもよい。この場合は、仮想視点とカメラとが一定以上離れている場合、重み係数を0と設定することにより、そのカメラの画像を利用しない色付け方式を選択することが可能となる。
(実施形態2)
実施形態1では、三次元モデルを構成する点に色付けを行う際、仮想視点情報(仮想視点の位置情報)に基づいて色付け方式を切り替える例を説明した。これに対して、実施形態2では、仮想視点の動き情報、すなわち仮想カメラの動き情報(例えば仮想カメラの速度)に基づいて、混色を行う領域の範囲を変化させる例を説明する。
本実施形態に係る画像生成システム及び画像生成装置の構成、及び全体の処理の流れは実施形態1で図1、図2(a)、図2(b)、図3を参照して説明した内容と同様であるため、説明を省略する。
<色付け方式の決定方法>
まず図7を参照して、実施形態2に係る色付け方式の決定方法を説明する。図7は、仮想カメラ(仮想視点)の動きに応じて、混色を行う領域の広さを切り替える処理について説明する図である。
図7(a)は、仮想カメラの動きが一定以上である場合(例えば仮想カメラの速度が閾値以上である場合)の色付け処理について説明する図である。701は仮想カメラであり、702は網掛け領域である。網掛け領域702は複数のカメラの画像を用いた混色処理で色付けを行う領域を示している。
一方、図7(b)は、仮想カメラの動きが一定未満である場合(例えば仮想カメラの速度が閾値未満である場合)の色付け処理について説明する図である。703は仮想カメラであり、704は網掛け領域である。網掛け領域704は複数のカメラの画像を用いた混色処理で色付けを行う領域を示している。図7(a)と比較して図7(b)の方が、混色処理で色付けを行う領域が狭いこと、つまり、単一のカメラの画像を用いて色付け処理を行う領域が広いことを示している。換言すれば、図7(a)のマップ情報は混色を行う領域が相対的に広いマップ情報であり、図7(b)のマップ情報は混色を行う領域が相対的に狭いマップ情報である。
仮想カメラの速度が閾値以上である場合、図7(b)で示したように、単一のカメラの画像を用いて色付けを行う領域が多いと、動いた際の色の変化が大きくなる可能性があり、仮想視点画像の品質が劣化する可能性がある。そこで、仮想カメラの動きの大きさに基づいて適切なマップ情報を選択する。具体的には、仮想視点の速度が閾値以上である場合、図7(a)のようなマップ情報を選択し、仮想視点の速度が閾値未満である場合、図7(b)のようなマップ情報を選択する。これにより、高画質の仮想視点画像を生成することが可能となる。
<色付け方式の決定処理>
続いて、図7の模式図及び図8のフローチャートを参照して、本実施形態に係る、ステップS302の色付け方式の決定処理の詳細を説明する。
ステップS801において、色付け方式決定部209は、混色を行う領域と、混色を行わない領域とが分けて設定された複数のマップ情報(混色を行う領域を示すマップ情報)を取得する。本実施形態では、図7(a)及び図7(b)に示したような、二種類のマップ情報を取得する。
ステップS802において、色付け方式決定部209は、図3のステップS301で仮想視点情報取得部208により取得された仮想視点情報(位置情報、動き情報)から、仮想視点の速度情報を取得する。
ステップS803において、色付け方式決定部209は、仮想視点の速度情報に応じて使用するマップ情報を選択。図7(a)及び図7(b)を参照して説明したように、仮想視点の速度が閾値以上である場合、図7(a)のマップ情報を選択する。一方、仮想視点の速度が閾値未満である場合、図7(b)のマップ情報を選択する。
ステップS804において、色付け方式決定部209は、当該仮想視点の位置と、選択されたマップ情報とを比較する。ステップS805において、色付け方式決定部209は、ステップS804の比較結果に基づいて、仮想視点の位置が混色を行う領域内に存在するか否かを判定する。仮想視点が混色を行う領域内に存在する場合、ステップS806へ進む。一方、仮想視点が混色を行う領域内に存在しない場合、ステップS807へ進む。
ステップS806において、色付け方式決定部209は、色付け方式を、複数のカメラの画像を用いた混色処理で色付けを行う色付け方式として決定する。ステップS807において、色付け方式決定部209は、色付け方式を、単一のカメラの画像を用いて色付けを行う色付け方式として決定する。即ち、混色を利用しない色付け方式に決定する。
以上説明したように、本実施形態では、仮想視点の動き情報に基づいて、混色を行う領域の範囲を変化させる。これにより、高品質な仮想視点画像を生成することが可能となる。
(実施形態3)
実施形態1では、仮想視点情報(仮想視点の位置情報)に基づいて色付け方式を切り替える例を説明した。また、実施形態2では、仮想視点の動き情報(例えば仮想カメラの速度)に基づいて、混色を行う領域の範囲を変化させる例を説明した。
これに対して、実施形態3では、画像を撮影したカメラの精度情報に基づいて、混色を行う領域の範囲を変化させる例を説明する。ここで、カメラの精度とは、カメラのフォーカス精度や色精度のことである。本発明に係る画像生成システムは、複数のカメラが撮影を行うシステムであるため、カメラ間の器差が存在する。よって、カメラの精度情報に基づいて、適切な色付け方式による色付け処理を行うことにより、高品質な仮想視点画像を生成することが可能となる。
本実施形態に係る画像生成システムの構成及び全体の処理の流れは実施形態1で図1及び図3を参照して説明した内容と同様であるため、説明を省略する。また、本実施形態に係る画像生成装置のハードウェア構成は実施形態1で図2(b)を参照して説明した内容と同様であるため、説明を省略する。
<画像生成装置の機能構成>
まず、図9を参照して、本実施形態に係る画像生成装置122の機能構成を説明する。本実施形態に係る画像生成装置122は、図2(a)で説明した構成要素に加えて、カメラ精度情報取得部901を備えている。図2(a)と同様の構成要素については同一の参照符号を付与しており、詳細な説明は省略する。
カメラ精度情報取得部901は、カメラ情報取得部211からカメラ情報を取得し、カメラ情報の一つである精度情報を取得する。取得したカメラ精度情報は、色付け方式決定部209へ送出され、色付け処理方式の決定に使用される。
<色付け方式の決定方法>
まず、図10を参照して、実施形態3に係る色付け方式の決定方法を説明する。図10は、カメラの精度情報に基づいて、混色を行う領域を変化させる処理について説明する図である。
図10において、1001から1004は、撮影に使用したカメラであり、1005は仮想カメラを示す。1006は網掛け領域である。網掛け領域1006は、色付け処理において混色を行う領域を示している。図10の例は、カメラ1001からカメラ1004ついてカメラ精度情報を取得した際に、カメラ1003の精度が他のカメラの精度と比較して低い場合である。ここで、カメラの精度とは、基準色からの色差であるものとし、カメラ1003が最も基準色から離れていたとする。
カメラ1003の精度が低い場合、そのカメラを単独で色付けに使用すると、そのカメラを利用した色付け結果だけが他の色付け結果と異なることとなり、仮想視点画像の品質が劣化する。そこで、図10に示すように、精度が低いカメラ1003の周辺領域では、隣接するカメラ(ここではカメラ1002、カメラ1004)との混色を行うように領域を設定する。すなわち、精度が閾値未満のカメラとオブジェクトとを結ぶ線から所定範囲内の領域が混色を行う領域となるようにマップ情報を更新する。これにより、極端な画質の劣化を排除した仮想視点画像の生成が可能となる。なお、色づけ方式の選択に用いられるカメラの精度は、色差で表されるものに限定されない。例えば、露出やフォーカスなどの設定が基準値から所定値以上ずれているカメラを精度の低いカメラとして扱ってもよいし、隣接するカメラとの間の色や露出やフォーカス値の差が所定値以上のカメラを精度の低いカメラとして扱ってもよい。
<処理>
続いて、図9の模式図及び図10のフローチャートを参照して、本実施形態に係る、ステップS302の色付け方式の決定処理の詳細を説明する。ステップS1101において、色付け方式決定部209は、混色を行う領域と、混色を行わない領域とが分けて設定されたマップ情報(混色を行う領域を示すマップ情報)を取得する。ここで取得するマップ情報は、例えば図5に示したマップ情報であってもよい。
ステップS1102において、色付け方式決定部209は、カメラ精度情報取得部901により取得されたカメラの精度情報を取得する。ステップS1103において、色付け方式決定部209は、ステップS1102で取得されたカメラの精度情報に基づいて、ステップS1101で取得されたマップ情報を更新する。更新処理では、図10で説明したように、精度が閾値未満であるカメラを利用する範囲(精度が閾値未満のカメラとオブジェクトとを結ぶ線から所定範囲内の領域)が、混色を行う領域となるようにマップ情報を更新する。例えば、図5に示したようなマップ情報を、図10に示したようなマップ情報に更新する。
ステップS1104において、色付け方式決定部209は、当該仮想視点の位置と、更新されたマップ情報とを比較する。ステップS1105において、色付け方式決定部209は、ステップS1104の比較結果に基づいて、仮想視点の位置が混色を行う領域内に存在するか否かを判定する。仮想視点が混色を行う領域内に存在する場合、ステップS1106へ進む。一方、仮想視点が混色を行う領域内に存在しない場合、ステップS1107へ進む。
ステップS1106において、色付け方式決定部209は、色付け方式を、複数のカメラの画像を用いた混色処理で色付けを行う色付け方式として決定する。ステップS1107において、色付け方式決定部209は、色付け方式を、単一のカメラの画像を用いて色付けを行う色付け方式として決定する。即ち、混色を利用しない色付け方式に決定する。
以上説明したように、本実施形態では、画像を撮影したカメラの精度情報に基づいて、混色を行う領域の範囲を変化させる。本実施形態によれば、カメラの精度を考慮した高品質な仮想視点画像を生成することが可能となる。
なお、仮想視点画像に複数のオブジェクトが含まれる場合には、オブジェクトごとにモデルの色づけ方式を決定してもよい。例えば、画像生成装置122は、仮想視点から所定距離以内の範囲に位置するオブジェクトのモデルへの色付けには単一のカメラの撮影画像を使用し、仮想視点から所定距離以上離れたオブジェクトのモデルへの色付けには複数のカメラの撮影画像を使用してもよい。これにより、仮想視点画像の画質をより詳細に制御できる。また、オブジェクトの構成要素(点やメッシュ)ごとに色づけ方式を決定してもよい。なお、オブジェクトを構成する点ごとに色づけ方式を決定するよりも、オブジェクトごと又は仮想視点画像全体について色づけ方式を決定した方が、オブジェクトの色の連続性を向上させることができる。
また、上述の各実施形態では、撮影画像を用いてオブジェクトのモデルに色付けを行った後に、その色付けされたモデルを用いて仮想視点画像を生成するものとして説明を行った。ただし、仮想視点画像の生成方法はこれに限定されない。例えば、画像生成装置122は、仮想視点画像内のオブジェクト領域の各画素について、その画素がオブジェクトのモデルのどの点に対応するかを判定し、その点に対応する撮影画像の画素値を取得してもよい。そして、取得した撮影画像の画素値を用いて仮想視点画像の画素値を決定してもよい。このような場合においても、上述した色づけ方式の決定方法のように、仮想視点画像の画素値の決定に用いる撮影画像の数を制御することで、高画質の仮想視点画像を生成することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
122:画像生成装置、201:撮影画像入力部202:通信制御部、203:三次元モデル生成部、204:色付け処理部、205:仮想視点画像生成部、206:画像出力部、207:仮想視点受信部、208:仮想視点情報取得部、209:色付け方式決定部、210:切替制御部、211:カメラ情報取得部、901:カメラ精度情報取得部

Claims (10)

  1. 複数のカメラにより撮影された画像に基づいて生成されたオブジェクトの三次元モデルを用いて仮想視点に応じた仮想視点画像を生成する画像生成装置であって、
    前記仮想視点の情報を取得する取得手段と、
    前記取得手段により取得された前記仮想視点の情報に基づいて、前記三次元モデルの構成要素の色付け方式を決定する決定手段と、
    前記決定手段により決定された色付け方式で前記構成要素への色付け処理を実施する処理手段と、
    前記処理手段による色付け処理が行われた前記三次元モデルに基づいて前記仮想視点に応じた仮想視点画像を生成する生成手段と、
    を備え
    前記仮想視点の情報は、前記仮想視点の位置情報及び速度情報を含み、
    前記決定手段は、前記複数のカメラの画像による混色を行う領域を示す複数のマップ情報を取得し、前記仮想視点の速度情報に基づいて、前記複数のマップ情報の中からマップ情報を選択し、前記仮想視点の位置情報と、前記選択されたマップ情報とに基づいて、前記色付け方式を決定し、
    前記複数のマップ情報は、前記混色を行う領域が相対的に広い第1のマップ情報と、前記混色を行う領域が相対的に狭い第2のマップ情報とを含み、
    前記決定手段は、前記仮想視点の速度が閾値以上である場合、前記第1のマップ情報を選択し、前記仮想視点の速度が閾値未満である場合、前記第2のマップ情報を選択することを特徴とする画像生成装置。
  2. 前記決定手段により決定される色づけ方式には、単一のカメラにより撮影された画像を用いて前記構成要素への色づけ処理を行う方式と、複数のカメラにより撮影された複数の画像を用いて前記構成要素への色づけ処理を行う方式とが含まれることを特徴とする請求項1に記載の画像生成装置。
  3. 前記マップ情報では、前記オブジェクトとカメラとを結ぶ線から所定範囲内の領域が前記混色を行わない第1領域として規定されており、前記第1領域以外の領域が前記混色を行う第2領域として規定されていることを特徴とする請求項1又は2に記載の画像生成装置。
  4. 複数のカメラにより撮影された画像に基づいて生成されたオブジェクトの三次元モデルを用いて仮想視点に応じた仮想視点画像を生成する画像生成装置であって、
    前記仮想視点の情報を取得する取得手段と、
    前記取得手段により取得された前記仮想視点の情報に基づいて、前記三次元モデルの構成要素の色付け方式を決定する決定手段と、
    前記決定手段により決定された色付け方式で前記構成要素への色付け処理を実施する処理手段と、
    前記処理手段による色付け処理が行われた前記三次元モデルに基づいて前記仮想視点に応じた仮想視点画像を生成する生成手段と、
    を備え、
    前記複数のカメラの各々の精度情報を取得する精度情報取得手段をさらに備え、
    前記仮想視点の情報は、前記仮想視点の位置情報を含み、
    前記決定手段は、前記複数のカメラの画像による混色を行う領域を示すマップ情報を取得し、前記精度情報に基づいて前記マップ情報を更新し、前記仮想視点の位置情報と、前記更新されたマップ情報とに基づいて、前記色付け方式を決定し、
    前記決定手段は、前記精度情報に基づいて、精度が閾値未満のカメラと前記オブジェクトとを結ぶ線から所定範囲内の領域が前記混色を行う領域となるように前記マップ情報を更新することを特徴とする画像生成装置。
  5. 仮想視点を操作するためのユーザインタフェースの操作内容を受信する受信手段をさらに備え、
    前記取得手段は、前記操作内容に基づいて、前記仮想視点の情報を取得することを特徴とする請求項1乃至の何れか1項に記載の画像生成装置。
  6. 前記生成手段により生成された前記仮想視点画像を出力する出力手段をさらに備えることを特徴とする請求項1乃至の何れか1項に記載の画像生成装置。
  7. 前記三次元モデルの構成要素は、前記三次元モデルが複数の点の集合により表される場合における点、又は、前記三次元モデルが複数のメッシュの集合により表される場合におけるメッシュであることを特徴とする請求項1乃至の何れか1項に記載の画像生成装置。
  8. 複数のカメラにより撮影された画像に基づいて生成されたオブジェクトの三次元モデルを用いて仮想視点に応じた仮想視点画像を生成する画像生成装置の制御方法であって、
    前記仮想視点の情報を取得する取得工程と、
    前記取得工程により取得された前記仮想視点の情報に基づいて、前記三次元モデルの構成要素の色付け方式を決定する決定工程と、
    前記決定工程により決定された色付け方式で前記構成要素への色付け処理を実施する処理工程と、
    前記処理工程による色付け処理が行われた前記三次元モデルに基づいて前記仮想視点に応じた仮想視点画像を生成する生成工程と、
    を有し、
    前記仮想視点の情報は、前記仮想視点の位置情報及び速度情報を含み、
    前記決定工程では、前記複数のカメラの画像による混色を行う領域を示す複数のマップ情報を取得し、前記仮想視点の速度情報に基づいて、前記複数のマップ情報の中からマップ情報を選択し、前記仮想視点の位置情報と、前記選択されたマップ情報とに基づいて、前記色付け方式を決定し、
    前記複数のマップ情報は、前記混色を行う領域が相対的に広い第1のマップ情報と、前記混色を行う領域が相対的に狭い第2のマップ情報とを含み、
    前記決定工程では、前記仮想視点の速度が閾値以上である場合、前記第1のマップ情報を選択し、前記仮想視点の速度が閾値未満である場合、前記第2のマップ情報を選択することを特徴とする画像生成装置の制御方法。
  9. 複数のカメラにより撮影された画像に基づいて生成されたオブジェクトの三次元モデルを用いて仮想視点に応じた仮想視点画像を生成する画像生成装置の制御方法であって、
    前記仮想視点の情報を取得する取得工程と、
    前記取得工程により取得された前記仮想視点の情報に基づいて、前記三次元モデルの構成要素の色付け方式を決定する決定工程と、
    前記決定工程により決定された色付け方式で前記構成要素への色付け処理を実施する処理工程と、
    前記処理工程による色付け処理が行われた前記三次元モデルに基づいて前記仮想視点に応じた仮想視点画像を生成する生成工程と、
    を有し、
    前記複数のカメラの各々の精度情報を取得する精度情報取得工程をさらに有し、
    前記仮想視点の情報は、前記仮想視点の位置情報を含み、
    前記決定工程では、前記複数のカメラの画像による混色を行う領域を示すマップ情報を取得し、前記精度情報に基づいて前記マップ情報を更新し、前記仮想視点の位置情報と、前記更新されたマップ情報とに基づいて、前記色付け方式を決定し、
    前記決定工程では、前記精度情報に基づいて、精度が閾値未満のカメラと前記オブジェクトとを結ぶ線から所定範囲内の領域が前記混色を行う領域となるように前記マップ情報を更新することを特徴とする画像生成装置の制御方法。
  10. コンピュータを、請求項1乃至の何れか1項に記載の画像生成装置の各手段として機能させるためのプログラム。
JP2018170896A 2018-09-12 2018-09-12 画像生成装置、画像生成装置の制御方法及びプログラム Active JP7190849B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018170896A JP7190849B2 (ja) 2018-09-12 2018-09-12 画像生成装置、画像生成装置の制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018170896A JP7190849B2 (ja) 2018-09-12 2018-09-12 画像生成装置、画像生成装置の制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020042666A JP2020042666A (ja) 2020-03-19
JP7190849B2 true JP7190849B2 (ja) 2022-12-16

Family

ID=69798423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018170896A Active JP7190849B2 (ja) 2018-09-12 2018-09-12 画像生成装置、画像生成装置の制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7190849B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022126206A (ja) * 2021-02-18 2022-08-30 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348213A (ja) 1999-06-07 2000-12-15 Sanyo Electric Co Ltd 三次元画像生成装置、三次元画像生成表示装置、及びその方法並びに記録媒体
JP2017509972A (ja) 2014-02-21 2017-04-06 クアルコム,インコーポレイテッド ビュー非依存色等化3dシーンテクスチャ処理

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348213A (ja) 1999-06-07 2000-12-15 Sanyo Electric Co Ltd 三次元画像生成装置、三次元画像生成表示装置、及びその方法並びに記録媒体
JP2017509972A (ja) 2014-02-21 2017-04-06 クアルコム,インコーポレイテッド ビュー非依存色等化3dシーンテクスチャ処理

Also Published As

Publication number Publication date
JP2020042666A (ja) 2020-03-19

Similar Documents

Publication Publication Date Title
CN110073414B (zh) 图像处理设备、方法和非暂时性计算机可读存储介质
JP7072378B2 (ja) 画像生成装置およびその制御方法、画像生成システム、プログラム
US11557081B2 (en) Image processing apparatus, control method for an image processing apparatus, and medium
JP5781353B2 (ja) 情報処理装置、情報処理方法、および位置情報のデータ構造
JP2018112997A (ja) 画像処理装置及びその方法、プログラム、画像処理システム
JP2019125929A (ja) 画像処理装置、画像処理方法、及びプログラム
EP2490179A1 (en) Method and apparatus for transmitting and receiving a panoramic video stream
WO2018100928A1 (ja) 画像処理装置および方法
CN107592452B (zh) 一种全景音视频采集设备及方法
JP2013009274A (ja) 画像処理装置および画像処理方法、プログラム
JP2006229768A (ja) 映像信号処理装置及び該方法並びに仮想現実感生成装置
CN111669564B (zh) 图像重建方法、系统、设备及计算机可读存储介质
JP2019050451A (ja) 画像処理装置及びその制御方法及びプログラム及び画像処理システム
JP7190849B2 (ja) 画像生成装置、画像生成装置の制御方法及びプログラム
KR101987062B1 (ko) Ip를 통한 멀티카메라 비디오 분배 및 결합 시스템 및 그 방법
GB2584282A (en) Image acquisition system and method
CN113963094A (zh) 深度图及视频处理、重建方法、装置、设备及存储介质
KR20210128203A (ko) 볼륨메트릭 3d 동영상 제공 시스템 및 방법
US20220329912A1 (en) Information processing apparatus, information processing method, and program
JP2023075859A (ja) 情報処理装置、情報処理方法、及び、プログラム
CN105100595A (zh) 摄像设备及其控制方法
JP2019020845A (ja) 画像処理装置及び方法、及び、画像処理システム
KR20180092411A (ko) 다원 방송 송출 방법 및 장치
JP6943151B2 (ja) 表示制御装置及び表示制御システム
JP2022019341A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221206

R151 Written notification of patent or utility model registration

Ref document number: 7190849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151