JP2023018253A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2023018253A JP2023018253A JP2021122238A JP2021122238A JP2023018253A JP 2023018253 A JP2023018253 A JP 2023018253A JP 2021122238 A JP2021122238 A JP 2021122238A JP 2021122238 A JP2021122238 A JP 2021122238A JP 2023018253 A JP2023018253 A JP 2023018253A
- Authority
- JP
- Japan
- Prior art keywords
- display mode
- virtual viewpoint
- image processing
- viewpoint image
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、仮想視点画像を生成するための技術に関する。 The present disclosure relates to technology for generating a virtual viewpoint image.
複数の撮像装置を異なる位置に設置して、複数の視点からオブジェクトを撮像して得られた複数の撮像画像を用いて、任意の視点からの仮想視点画像を生成する方法がある。 2. Description of the Related Art There is a method of generating a virtual viewpoint image from an arbitrary viewpoint by using a plurality of captured images obtained by imaging an object from a plurality of viewpoints by installing a plurality of imaging devices at different positions.
特許文献1には、オブジェクトを取り囲むように複数のカメラを配置し、オブジェクトを撮像して得られた画像を用いて、任意の視点に対応する仮想視点画像を生成する方法が開示されている。 Patent Literature 1 discloses a method of arranging a plurality of cameras so as to surround an object and generating a virtual viewpoint image corresponding to an arbitrary viewpoint using an image obtained by imaging the object.
特許文献1の方法を用いて、例えば、スタジオを撮像して得られた撮像画像に基づいて、スタジオにいる演者を仮想視点から見た仮想視点画像を生成することが考えられる。この場合、スタジオにはスタッフ、カメラマンなどの演者以外のオブジェクトも存在するため、仮想視点画像には、演者以外のオブジェクトが映りこんでしまうことがある。演者と異なるオブジェクトが仮想視点画像に映り込んでしまうとユーザは演者に集中して仮想視点画像を見ることできなくなる虞がある。一方、演出によってはスタッフ、カメラマン等の演者以外のオブジェクトを仮想視点画像に映したいこともある。 Using the method of Patent Literature 1, for example, it is conceivable to generate a virtual viewpoint image in which the performer in the studio is viewed from a virtual viewpoint based on a captured image obtained by capturing the studio. In this case, since there are objects other than the performer, such as staff and cameramen, in the studio, the objects other than the performer may appear in the virtual viewpoint image. If an object different from the performer appears in the virtual viewpoint image, the user may not be able to concentrate on the performer and view the virtual viewpoint image. On the other hand, depending on the performance, it may be desirable to show an object other than the performer, such as a staff member or a cameraman, in the virtual viewpoint image.
本開示の技術は、本課題に鑑みてなされたものであって、オブジェクトが所望の表示態様で表されるように仮想視点画像を生成することを目的とする。 The technology of the present disclosure has been made in view of this problem, and aims to generate a virtual viewpoint image such that an object is represented in a desired display mode.
本開示の画像処理装置は、複数の撮像装置によってオブジェクトを撮像して得られた撮像画像に基づき生成される仮想視点画像における前記オブジェクトの表示態様を、前記オブジェクトの位置および前記オブジェクトのジェスチャの少なくとも一方に基づき設定する設定手段と、前記オブジェクトが前記設定された表示態様で表されるように、前記仮想視点画像を生成する生成手段と、を有することを特徴とする。 The image processing apparatus according to the present disclosure determines the display mode of the object in the virtual viewpoint image generated based on the captured images obtained by imaging the object with a plurality of imaging devices, at least from the position of the object and the gesture of the object. and a generating means for generating the virtual viewpoint image so that the object is displayed in the set display mode.
本開示の技術は、オブジェクトが所望の表示態様で表されるように仮想視点画像を生成することができる。 The technology of the present disclosure can generate a virtual viewpoint image such that an object is represented in a desired display mode.
以下、添付の図面を参照して、実施形態に基づいて本開示の技術の詳細を説明する。 Hereinafter, details of the technology of the present disclosure will be described based on embodiments with reference to the accompanying drawings.
<実施形態1>
図1は、仮想視点画像を生成する画像処理システムの一例を示す図である。複数の撮像装置を異なる位置に設置することにより複数の視点で時刻同期して撮像し、その撮像により得られた複数の画像を用いて、実際の撮像装置からの視点によらない仮想視点から見た画像(仮想視点画像)を生成する方法がある。この仮想視点画像の生成は、複数の撮像装置で撮像して得られた画像をサーバ等の画像処理装置に集約し、その画像処理装置において、仮想視点に基づくレンダリング等の処理を実行することで実現される。さらに端末等の表示部に仮想視点画像を表示することで視聴者は仮想視点画像を見ることができる。なお、仮想視点画像は、動画であっても、静止画であってもよい。以下の実施形態では、仮想視点画像は動画であるものとして説明を行う。
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of an image processing system that generates a virtual viewpoint image. By installing multiple imaging devices at different positions, images are taken in synchronization from multiple viewpoints, and the multiple images obtained by the imaging are used to view from a virtual viewpoint that does not depend on the viewpoint from the actual imaging device. There is a method of generating an image (virtual viewpoint image). This virtual viewpoint image is generated by consolidating images obtained by imaging with a plurality of imaging devices into an image processing device such as a server, and executing processing such as rendering based on the virtual viewpoint in the image processing device. Realized. Further, by displaying the virtual viewpoint image on a display unit of a terminal or the like, the viewer can view the virtual viewpoint image. Note that the virtual viewpoint image may be a moving image or a still image. In the following embodiments, the virtual viewpoint image will be described as a moving image.
本実施形態の説明では、仮想視点を仮想的なカメラ(仮想カメラ)に置き換えて説明する場合がある。このとき、仮想視点の位置は仮想カメラの位置、仮想視点からの視線方向は仮想カメラの向きの方向にそれぞれ対応する。また、仮想視点画像は、仮想カメラの画角内の画像に対応する。仮想カメラの位置および向きは仮想カメラの操縦者が指定することができる。このため、任意の視点からの画像を生成することが可能となる。 In the description of the present embodiment, the virtual viewpoint may be replaced with a virtual camera (virtual camera). At this time, the position of the virtual viewpoint corresponds to the position of the virtual camera, and the line-of-sight direction from the virtual viewpoint corresponds to the orientation direction of the virtual camera. Also, the virtual viewpoint image corresponds to an image within the angle of view of the virtual camera. The position and orientation of the virtual camera can be specified by the operator of the virtual camera. Therefore, it is possible to generate an image from an arbitrary viewpoint.
本実施形態の画像処理システムは、複数の撮像装置100、前景抽出装置150、三次元モデル生成装置200、ストレージ装置300、仮想視点画像生成装置400、仮想視点パス生成装置500、を有する。また、仮想視点画像表示装置600、三次元モデル選択装置700を有する。
The image processing system of this embodiment includes a plurality of
撮像装置100は、画像(動画)を撮像するデジタルビデオカメラなどの装置である。撮像装置100は、複数配置されており、例えばGPSまたは外部同期信号等を受けて全台の撮像装置100が同じ時刻で撮像を行う。撮像装置100は、画像に加えて、音声、その他センサ情報をキャプチャリングする装置でもよい。
The
図2は、撮像装置100の配置を説明するための図である。スタジオ10は、仮想視点画像を生成するための撮像画像を得るために、撮像装置100が撮像を行う施設である。本実施形態では、スタジオに、撮像装置100を含めた画像処理システムを構築するものとして説明するが、画像処理システムを構築する場所はスタジオに限定するわけではなく、スタジアムやアリーナ等でもよい。
FIG. 2 is a diagram for explaining the arrangement of the
スタジオ10には、オブジェクトとして演者80および黒子(黒衣)51が存在するものとして説明する。演者80は、仮想視点画像内で描画されるオブジェクトである。演者80のようなオブジェクトは人に限定されるわけではなく、動物や、動かない物体でもよい。黒子51は、スタジオ内にいるカメラマン、スタッフ等の人物である。黒子51は、仮想視点画像内には表示されるように設定されるか、または表示されないように設定されるオブジェクトであるものとして説明する。黒子51のようなオブジェクトは、人に限定されるわけではなく、動物や、動かない物体でもよい。
It is assumed that the studio 10 has a performer 80 and a kuroko (kuromo) 51 as objects. A performer 80 is an object rendered in the virtual viewpoint image. An object such as the performer 80 is not limited to a person, and may be an animal or an immobile object. Kuroko 51 is a person such as a cameraman or staff in the studio. The
本実施形態の複数の撮像装置100は、スタジオ10内に設置され、主に、レンダリングエリア20を撮像するように配置されている。図2では、撮像装置100は14台設置している例を示しているが、撮像装置100の台数は14台に限定されない。
A plurality of
レンダリングエリア20は、スタジオ10内の空間のうち、仮想視点画像が生成可能な空間であり描画空間とも記す。図2の場合は、レンダリングエリア20に存在する演者80は、仮想視点画像内に表示され得る。一方、レンダリングエリア20の外側の黒子51は、図2の場合は、仮想視点画像には表示されることはない。
The
トラッキングエリア30は、画像処理システムがスタジオ10に存在するオブジェクトである演者80および黒子51をトラッキングして夫々の位置を取得することが可能となるエリアである。トラッキングエリア30の外側にあるオブジェクトの位置はトラッキングされない。
The
本実施形態では、図2では、スタジオ10、トラッキングエリア30、レンダリングエリア20の大きさは、スタジオ10>トラッキングエリア30>レンダリングエリア20として図示している。他にも、スタジオ10、トラッキングエリア30、レンダリングエリア20の大きさは同じでもよい。
In this embodiment, the sizes of the studio 10, the
図1に戻りシステム構成の説明を続ける。前景抽出装置150は、撮像装置100が撮像して得られた撮像画像および当該撮像画像を撮像した時の時刻情報であるタイムコードを取得し、取得した撮像画像に対して画像処理を行う装置である。前景抽出装置150は、取得した撮像画像からオブジェクトを表す領域を前景領域として抽出する処理を実行する。具体的には、撮像画像に含まれる前景領域と非前景領域とを二値で示したシルエット画像を生成する。また、前景のテクスチャ画像を生成する。前景のシルエット画像とテクスチャ画像とをまとめて前景データと呼ぶことがある。前景は、撮像画像におけるオブジェクトが存在する画像領域を指す。どのようなオブジェクトを前景として抽出すべきかについては、ユーザ等が予め指定することができる。
Returning to FIG. 1, the description of the system configuration is continued. The
撮像画像から前景を抽出する方法としては、例えば、背景差分情報を用いる方法がある。この方法は、オブジェクトが存在しないスタジオを撮像して得られた撮像画像を背景画像として予め保持しておく。そして、撮像画像と背景画像との画素値の差分値が閾値より大きい領域を前景と判定する方法である。なお、前景を抽出する方法は背景差分情報を用いる方法に限られない。他にも、視差を用いる方法、特徴量を用いる方法、または機械学習を用いる方法などが用いられてもよい。生成された前景データは三次元モデル生成装置200へ出力される。
As a method for extracting the foreground from the captured image, for example, there is a method using background difference information. In this method, a captured image obtained by capturing a studio in which no object exists is stored in advance as a background image. Then, an area in which the difference value between the pixel values of the captured image and the background image is larger than a threshold value is determined as the foreground. Note that the method for extracting the foreground is not limited to the method using background difference information. Alternatively, a method using parallax, a method using feature amount, a method using machine learning, or the like may be used. The generated foreground data is output to the 3D
なお、本実施形態では、前景抽出装置150と撮像装置100とは異なる装置であるものとして説明するが、前景抽出装置150と撮像装置100とは一体型の装置でもよい。または夫々の機能ブロックが、別の装置に備えられていてもよい。
In this embodiment, the
三次元モデル生成装置200は、PC、ワークステーション、サーバなどのコンピュータなどで実現される装置である。三次元モデル生成装置200は、前景抽出装置150から、処理対象のタイムコードの前景データおよび撮像装置100のカメラパラメータを取得し、レンダリングエリア20の内側にいるオブジェクトの三次元形状を表す三次元モデルを生成する。三次元モデルのデータを三次元形状データとも呼ぶ。
The three-dimensional
カメラパラメータは、撮像装置100それぞれの世界座標上の三次元位置、姿勢(撮像装置の向き)、焦点距離、主点(撮像画像上の中心)を表すパラメータが含まれる。カメラパラメータはあらかじめ撮像装置100の位置を校正するための校正パターンを撮像し、校正パターンを基準として定義される三次元座標と二次元のカメラ座標との座標変換を行うことにより測定、算出されているものとする。
The camera parameters include parameters representing the three-dimensional position, orientation (orientation of the imaging device), focal length, and principal point (center on the captured image) of each
三次元モデル生成装置200は、オブジェクトの三次元モデルの生成手法であるVisualHullを用いて三次元モデルを生成するものとして説明する。VisualHullは、撮像装置の光学主点位置から前景領域の輪郭上の各点を通すように、三次元空間中に広がる錐体を求め、各撮像装置に対応する錐体領域の共通部分を三次元モデルとする方法である。演算アルゴリズムとして例えば、VIM(Volume intersection method)、およびSCM(Space carving method)がある。SCMでは、三次元空間を微小な立方体で満たし、三次元空間中の個々の立方体を、各々の撮像装置100の平面に逆投影する。そして、全ての撮像装置100の前景のシルエットの内部に逆投影される立方体は前景として残し、それ以外の立方体は削除することで三次元モデルを生成する。三次元空間中の個々の立方体を一般的にボクセルと呼び、VisualHullにおいて前景のことをシルエットと呼ぶ。
The 3D
生成された三次元モデルのデータである三次元形状データは、例えば三次元空間上のボクセルの集合である点群フォーマットとしてストレージ装置300に出力される。なお、本実施形態では三次元モデルを点群フォーマットとして出力するものとして説明するが、三次元モデルのフォーマットを限定するわけではなく、他にもメッシュフォーマットなど他の異なるフォーマットで三次元モデルが出力されてもよい。三次元モデルは付与された識別子と、位置情報とが対応付けられて出力される。
The 3D shape data, which is the data of the generated 3D model, is output to the
位置情報は、演者80や黒子51に付けたRFIDやGPS等の無線タグを用いて取得された位置情報でもよいし、または、トラッキングエリア30における世界座標上の三次元位置の座標情報でもよい。三次元モデルに対応付けられた位置情報を、三次元モデルの位置情報と記す。このように、三次元モデル(オブジェクト)の位置情報はトラッキングされていることから、三次元モデル生成装置200は、同一オブジェクトの三次元モデルには同一の識別子を付与することができる。
The position information may be position information acquired using a wireless tag such as RFID or GPS attached to the performer 80 or the
そして、三次元モデル生成装置200は、三次元モデルの生成に用いた複数の撮像画像に対応するタイムコードと、複数の撮像装置100の夫々に対応するシルエット画像およびテクスチャ画像(前景データ)と、を出力する。さらに、識別子が付与された三次元モデル(三次元形状データ)と、三次元モデルおよび識別子に対応付けられた位置情報(三次元モデルの位置情報)と、をストレージ装置300に出力する。
Then, the three-dimensional
ストレージ装置300は、PC、ワークステーション、サーバなどのコンピュータなどの装置である。三次元モデル生成装置200によって生成された点群フォーマットデータである三次元モデル、夫々の三次元モデルの識別子、三次元モデルの位置情報、タイムコード、前景抽出装置150が生成した前景データを記憶する機能を有する。
The
なお、本実施形態では、ストレージ装置300の記憶部301(図4参照)で三次元モデル生成装置200から出力されるデータを記憶するものとして説明する。他の形態として、三次元モデル生成装置200は仮想視点画像生成装置400にデータを直接出力してもよい。この場合、画像処理システムは、ストレージ装置300を有しない構成でもよい。
In this embodiment, the storage unit 301 (see FIG. 4) of the
仮想視点パス生成装置500は、PC、ワークステーション、サーバなどのコンピュータなどによって実現される装置である。仮想視点パス生成装置500は、仮想視点画像を生成するための仮想カメラの情報である仮想視点パス情報を作成する装置である。仮想視点パス情報には、フレームごとの仮想カメラの位置、向き、および画角、仮想カメラの移動スピード、再生速度などのデータが含まれる。仮想視点パス生成装置500は、生成した仮想視点パス情報を仮想視点画像生成装置400に出力する。
The virtual viewpoint
三次元モデル選択装置700は、PC、ワークステーション、サーバなどのコンピュータでありUIを具備する装置である。ユーザの指示に基づき、トラッキングエリア30内にいるオブジェクトの表示情報(表示形態情報ともいう)の設定を行う。表示情報については後述する。
The three-dimensional
仮想視点画像生成装置400は、PC、ワークステーション、サーバなどのコンピュータで実現される装置である。ストレージ装置300に記憶されている点群フォーマットのデータである三次元モデル、シルエット画像およびテクスチャ画像(前景データ)、仮想視点パス生成装置500が生成する仮想視点パス情報、ならびに指定されたタイムコードを取得する。そして、仮想視点画像生成装置400は、取得したデータに基づきレンダリングエリア20の内側にある点群フォーマットの三次元モデルにレンダリング処理等を実行することで仮想視点画像を生成する。詳細は後述する。
The virtual viewpoint
仮想視点画像表示装置600は、液晶モニタや、プロジェクタなどで実現され、仮想視点画像を表示するモニタである。
The virtual viewpoint
三次元モデル生成装置200、前景抽出装置150、ストレージ装置300、仮想視点画像生成装置400、仮想視点パス生成装置500、三次元モデル選択装置700はLANネットワークを介して接続されている。本実施形態のネットワークトポロジはデイジーチェーン接続であるが、ネットワークトポロジはデイジーチェーン接続に限定されるものではない。他にも、Hubなどの中継装置を介した、スター、バス、メッシュ型接続でもよい。また、接続方法は、LANネットワークだけではなく、他の有線接続、無線LAN、公衆無線、インターネットを介してもよい。また、画像伝送用のインターフェースであるSDI(Serial Digital Interface)、またはDVI(Digital Visual Interface)等でもよい。
The 3D
[ハードウエア構成]
図3は仮想視点画像生成装置400のハードウエア構成を示す図である。なお、前景抽出装置150、三次元モデル生成装置200、仮想視点パス生成装置500、および三次元モデル選択装置700のハードウエア構成も、以下で説明する仮想視点画像生成装置400の構成と同様である。
[Hardware configuration]
FIG. 3 is a diagram showing the hardware configuration of the virtual viewpoint
仮想視点画像生成装置400は、CPU311、ROM312、RAM313、補助記憶装置314、表示部315、操作部316、通信I/F317、及びバス318を有する。
The virtual viewpoint
CPU311は、ROM312やRAM313に格納されているコンピュータプログラムやデータを用いて仮想視点画像生成装置400の全体を制御することで、後述する図4に示す仮想視点画像生成装置400の各機能を実現する。なお、仮想視点画像生成装置400はCPU311とは異なる1又は複数の専用のハードウエアを有し、CPU311による処理の少なくとも一部を専用のハードウエアが実行してもよい。専用のハードウエアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
The
ROM312は、変更を必要としないプログラムなどを格納する。RAM313は、補助記憶装置314から供給されるプログラムやデータ、及び通信I/F317を介して外部から供給されるデータなどを一時記憶する。補助記憶装置314は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
表示部315は、例えば液晶ディスプレイやLED等で構成され、ユーザが仮想視点画像生成装置400を操作するためのGUI(Graphical User Interface)などを表示する。操作部316は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU311に入力する。CPU311は、表示部315を制御する表示制御部、及び操作部316を制御する操作制御部として動作する。本実施形態では表示部315と操作部316とは仮想視点画像生成装置400の内部に存在するものとして説明するが、表示部315と操作部316との少なくとも一方が仮想視点画像生成装置400の外部の別の装置として存在していてもよい。
The
通信I/F317は、仮想視点画像生成装置400の外部の装置との通信に用いられる。例えば、仮想視点画像生成装置400が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F317に接続される。仮想視点画像生成装置400が外部の装置と無線通信する機能を有する場合には、通信I/F317はアンテナを備える。バス318は、仮想視点画像生成装置400の各部をつないで情報を伝達する。
A communication I/
[機能構成]
図4は、機能構成を示すブロック図である。図4を用いてストレージ装置300、仮想視点画像生成装置400の機能について説明する。
[Function configuration]
FIG. 4 is a block diagram showing the functional configuration. Functions of the
仮想視点画像生成装置400は、トラッキング情報取得部401、表示情報設定部402、表示情報管理部403、および仮想視点画像生成部404を有する。
The virtual viewpoint
トラッキング情報取得部401は、ストレージ装置300の記憶部301に記憶されている三次元モデルの位置情報を取得する。
A tracking information acquisition unit 401 acquires position information of a three-dimensional model stored in the
表示情報設定部402は、三次元モデルの位置情報等に基づき表示情報を設定する。表示情報の設定方法については後述する。本実施形態において設定可能な仮想視点画像におけるオブジェクトの表示態様は、通常レンダリング表示または透過表示とする。なお、設定可能な表示態様は通常レンダリング表示または透過表示に限定されない。ほかにも、オブジェクトに代えてアバターを表示、半透明表示、モザイク表示、シルエット表示が含まれていてもよい。また、オブジェクトにアノテーション表示を設定可能にしてもよい。
A display
表示情報管理部403は、夫々の三次元モデル(オブジェクト)の表示情報を登録する。具体的には、表示情報設定部402が設定した三次元モデル(オブジェクト)の表示情報、またはユーザが設定した三次元モデルの表示情報を、三次元モデルと対応付けて記憶することで、夫々のオブジェクトに夫々の表示情報を対応付けて管理する。また、表示情報管理部403は、表示情報を変更した時のタイムコードを管理する。表示情報管理部403は、表示情報の変更履歴を管理してもよい。
The display
仮想視点画像生成部404は、仮想視点パス生成装置500から受け取った仮想視点の位置、仮想視点に対応する画角に基づく仮想視点画像を生成する。具体的には、表示情報管理部403で管理しているオブジェクトに対応付けられた表示情報の表示態様で、それぞれのオブジェクトが仮想視点画像上で表されるように、レンダリングエリア20の内側にあるオブジェクトの三次元モデルに対して処理を行う。詳細は、フローチャートを用いて説明する。
The virtual viewpoint
上述した各機能部は、仮想視点画像生成装置400のCPU311が所定のプログラムを実行することにより実現されるが、これに限られるものではない。他にも例えば、演算を高速化するためのGPU(Graphics Processing Unit)、または、FPGA(Field Programmable Gate Array)などのハードウエアが利用されてもよい。各機能部は、ソフトウエアと専用ICなどのハードウエアとの協働で実現されてもよいし、一部またはすべての機能がハードウエアのみで実現されてもよい。
Each of the functional units described above is realized by executing a predetermined program by the
ストレージ装置300は、記憶部301を有する。記憶部301は、三次元モデル生成装置200が出力した三次元モデルおよび、三次元モデルの位置情報を関連付けて記憶する機能を有する。記憶部301は例えば、揮発性メモリ、ハードディスク、SSDのいずれかで実現される。
The
なお、図4の各部の機能は、上記で説明した各装置において実現されるものとして説明するが、各部の機能が実現される装置は限定されない。例えば、三次元モデル生成装置200が、上記に示した機能の全てを有している形態でもよい。または、三次元モデル生成装置200または仮想視点画像生成装置400が記憶部301を有していてもよく、その場合、ストレージ装置300を介さないで、三次元モデル生成装置200と仮想視点画像生成装置400とが接続されていてもよい。
Note that the function of each unit in FIG. 4 is described as being implemented by each device described above, but the device that implements the function of each unit is not limited. For example, the 3D
[仮想視点画像生成処理のフロー]
図5は、仮想視点画像の生成処理の一例を説明するためのフローチャートである。図5のフローチャートで示される一連の処理は、仮想視点画像生成装置400のCPU311がROM312に記憶されているプログラムコードをRAM313に展開し実行することにより行われる。また、図5におけるステップの一部または全部の機能をASICや電子回路等のハードウエアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。
[Flow of Virtual Viewpoint Image Generation Processing]
FIG. 5 is a flowchart for explaining an example of processing for generating a virtual viewpoint image. A series of processes shown in the flowchart of FIG. 5 are performed by the
仮想視点画像生成部404は、仮想視点パス生成装置500から1フレームごとに仮想視点画像の生成指示を受けることによって1フレーム分の仮想視点画像の生成を実行する。S501~504は1フレーム分の仮想視点画像の生成処理である。仮想視点パス生成装置500がタイムコードを時系列で指定することにより、時系列の仮想視点画像が生成され出力されることで動画像の仮想視点画像が仮想視点画像表示装置600に表示される。なお、タイムコードは時系列だけではなく、逆再生、過去のタイムコードを指定されてもよい。
The virtual viewpoint
S501において仮想視点画像生成部404は、生成対象のフレームにおける仮想カメラの情報(仮想カメラの位置、向き、および画角)、およびタイムコードを仮想視点パス生成装置500から取得する。例えば、仮想視点画像生成部404は、仮想視点パス情報を仮想視点パス生成装置500から取得することで、仮想視点画像の生成対象のフレームの仮想カメラの情報が取得される。
In S<b>501 , the virtual viewpoint
S502において仮想視点画像生成部404は、S501で取得した仮想カメラの情報に基づき、ストレージ装置300から、生成対象のフレームに対応するデータを取得する。即ち、生成対象フレームにおける仮想カメラの画角に含まれるオブジェクトの、点群フォーマットの三次元モデル、シルエット画像、およびテクスチャ画像が取得される。
In S<b>502 , the virtual viewpoint
S503おいて仮想視点画像生成部404は、仮想カメラの画角に含まれるオブジェクトに対応付けられている表示情報のうち、生成対象のフレームのタイムコードに対応する表示情報を、表示情報管理部403から取得する。
In S<b>503 , the virtual viewpoint
S504において仮想視点画像生成部404は、生成対象フレームの仮想カメラの画角内に含まれる夫々のオブジェクトが、S503で取得した表示情報が示す表示態様で表されるように生成対象のフレームの仮想視点画像を生成する。具体的には、S502で取得した三次元モデルに対して、夫々の三次元モデルに対応付けられている表示情報に対応する処理を行う。
In S504, the virtual viewpoint
本実施形態では、仮想視点画像生成部404は、表示情報に基づき、通常レンダリング処理または透過処理を行う。オブジェクトの表示情報が通常レンダリング表示である場合、仮想視点画像生成部404は、当該オブジェクトの三次元モデルに対して通常レンダリング処理を実行する。通常レンダリング処理は、撮像画像のとおりに色付けを行う方法であり、点群フォーマットの三次元モデルに、テクスチャ画像に基づきテクスチャを投影して色付けを行う処理である。
In this embodiment, the virtual viewpoint
オブジェクトの表示情報が透過表示である場合、仮想視点画像生成部404は、当該オブジェクトの三次元モデルに対して透過処理を実行する。透過処理は、オブジェクトの点群フォーマットの三次元モデルにテクスチャの投影を行わない処理である。透過処理が行われた場合、仮想視点画像には当該オブジェクトに対応する三次元モデルが表示されないように仮想視点画像上のオブジェクトを表現することができる。
When the display information of an object is transparent display, the virtual viewpoint
仮想視点画像生成部404は、S504の処理の結果を画像形式に変換して仮想視点画像表示装置600に出力する。出力する画像形式はDVIとするが、形式は問わない。DVIの他に、SDIや動画ファイルをネットワーク上にストリーミング出力する方式等がある。なお、本実施形態では仮想視点画像表示装置600に出力しているが、ストレージ装置300に出力してもよい。
The virtual viewpoint
S505において仮想視点画像生成部404は、次フレームの仮想視点画像を生成するかを判定する。次フレームがあれば、S501に戻り1フレーム分の仮想視点画像の生成処理を繰り返す。
In S505, the virtual viewpoint
[表示情報の設定処理]
図6は、仮想視点画像生成装置400で実行される表示情報の設定処理を説明するためのフローチャートである。図6のフローチャートで示される一連の処理は、仮想視点画像生成装置400のCPU311がROM312に記憶されているプログラムコードをRAM313に展開し実行することにより行われる。また、図6におけるステップの一部または全部の機能をASICや電子回路等のハードウエアで実現してもよい。
[Display information setting process]
FIG. 6 is a flowchart for explaining display information setting processing executed by the virtual viewpoint
図6のフローチャートで示す表示情報の設定処理は、図5のフローチャートで示した仮想視点画像の生成処理と並行して行われるものとして説明する。例えば、ある1フレーム分の仮想視点画像を生成する場合、図5のフローチャートでは生成対象のフレームの三次元モデルが取得される。一方、図6のフローチャートの処理では後述するように生成対象のフレームにおける三次元モデルの位置情報が取得される。他にも、図6のフローチャートの処理が図5のフローチャートで示した仮想視点画像の生成処理の前に行われていてもよい。 The display information setting process shown in the flowchart of FIG. 6 will be described as being performed in parallel with the virtual viewpoint image generation process shown in the flowchart of FIG. For example, when generating a virtual viewpoint image for one frame, a three-dimensional model of the frame to be generated is acquired in the flowchart of FIG. On the other hand, in the process of the flowchart of FIG. 6, the position information of the 3D model in the frame to be generated is acquired as will be described later. Alternatively, the process of the flowchart of FIG. 6 may be performed before the virtual viewpoint image generation process shown in the flowchart of FIG.
S601においてトラッキング情報取得部401は、三次元モデル生成装置200が設定した三次元モデル(オブジェクト)を識別するそれぞれの識別子および、識別子に対応付けられた三次元モデルの位置情報を、ストレージ装置300から取得する。
In S<b>601 , the tracking information acquisition unit 401 retrieves each identifier for identifying the three-dimensional model (object) set by the three-dimensional
S602において表示情報設定部402は、S601で取得したオブジェクトごとの三次元モデルの位置情報に基づき、オブジェクトの表示情報を、オブジェクトごとに設定する。本ステップによる表示情報の設定の方法については後述する。
In S602, the display
S603において表示情報管理部403は、S602の処理の結果、管理している表示情報が変更された場合、オブジェクトに対応付けられた表示情報を、変更後の表示情報に更新する。具体的には、表示情報は、オブジェクトの三次元モデルと対応付けることで、オブジェクトと対応付けて管理されているため、三次元モデルに対応付けられた表示情報を更新する。また、表示情報管理部403は、表示情報を変更するタイミングを示す時刻情報としてタイムコードも併せて記録して管理する。なお、S603の処理は、図5のフローチャートのS503で仮想視点画像生成部404が表示情報を取得する前までに完了するように処理される。
In S603, when the managed display information is changed as a result of the process of S602, the display
なお、ユーザが三次元モデル選択装置700を介して表示情報を設定していた場合は、ユーザの設定を優先してもよいし、本フローチャートで表示情報設定部402が実行した設定を優先してもよい。例えば、ユーザの設定と表示情報設定部402による設定とのどちらを優先するかを予め設定しておき、その設定に従って、表示情報が設定されてもよい。
If the user has set the display information via the 3D
S604において表示情報設定部402は、次フレームの仮想視点画像の生成指示がある否かを判定する。次フレームがある場合はS601に戻り、次フレームにおけるオブジェクトの表示情報の設定処理を続ける。
In S604, the display
図7は、S602における表示情報の設定処理を説明するための図である。図7を用いて、表示情報設定部402による表示情報の設定の方法の一例を説明する。なお、本実施形態では、平面の位置を座標(X,Y)で表す。また、高さを座標(Z)で表し、三次元空間上の位置を座標(X,Y,Z)で表すものとして説明する。
FIG. 7 is a diagram for explaining the display information setting process in S602. An example of a method for setting display information by the display
図7のトラッキングエリア30は、平面が、座標(X,Y)=(0,0)の点Aと、座標(X,Y)=(100、50)の点Dと、で結ぶ線を対角線とする長方形である。また、トラッキングエリア30は、その高さが座標(Z)=(30)である直方体のエリア(空間)とする。
In the
図7のレンダリングエリア20は、平面が、座標(X,Y)=(10、10)の点Eと、座標(X,Y)=(90、40)の点Hと、で結ぶ線を対角線とする長方形である。また、レンダリングエリア20は、その高さが座標(Z)=(20)である直方体のエリア(空間)とする。
In the
後述する第1の設定面720は、レンダリングエリア20内と外との境界面のうちの一部の領域であり、座標(20、10、10)の点Xと座標(30、10、0)の点Yとを結ぶ線を対角線とする長方形の領域である。レンダリングエリア20内と外との境界面のうち第1の設定面720の領域以外の境界面を第2の設定面とよぶ。図7に示す各エリアの大きさは一例であり、各エリアの大きさは図7に示すサイズに限定するわけではない。また、第1の設定面720は長方形であるが長方形に限定するわけでもない。三角形や多角形、円、任意の面でもよい。
A
本実施形態では、表示情報設定部402は、三次元モデル(オブジェクト)の位置情報に基づき、オブジェクトがレンダリングエリア20に侵入した際の境界面を決定して、その境界面の位置に応じた表示態様を表示情報に設定する。
In this embodiment, the display
オブジェクトが第1の設定面720を介してレンダリングエリア20に侵入した場合、そのオブジェクトに対応付けられた表示情報には、通常レンダリング処理によって仮想視点画像に表示されるように表示態様を設定する。即ち、そのオブジェクトの表示情報として通常レンダリング表示を設定する。
When an object enters the
オブジェクトが第2の設定面(第1の設定面720以外の境界面)を介してレンダリングエリア20に侵入した場合、透過処理によって仮想視点画像に表示されるように、そのオブジェクトに対応する表示情報を設定する。即ち、そのオブジェクトの表示情報として透過表示を設定する。
When an object enters the
例えば、図7では、黒子701はトラッキングエリア30から第1の設定面720を通ってレンダリングエリア20へ入っている。このため、表示情報設定部402は、通常レンダリング処理が行われるように黒子701に対応付けられている表示情報を設定する。一方、黒子702はトラッキングエリア30から第2の設定面(第1の設定面720以外の境界面)を通ってレンダリングエリア20へ入っている。このため、表示情報設定部402は、透過処理が行われるように黒子702に対応付けられている表示情報を設定する。
For example, in FIG. 7, mole 701 enters
第1の設定面720および第2の設定面のサイズおよび位置は、図7に示す位置および大きさに限定されない。レンダリングエリア20とトラッキングエリア30との境界面のうちの任意の領域に第1の設定面および第2の設定面を設定してもよいし、第1の設定面を複数設定してもよい。また、第1の設定面720はレンダリングエリア20内と外との境界面のうちの一部の領域でなくてもよい。例えばレンダリングエリア20の中に第1の設定面を定義してもよい。
The size and position of the
オブジェクトが第1の設定面720を介してレンダリングエリア20に侵入したかの判定方法は、例えば、オブジェクトの三次元モデルの全てが第1の設定面720を通った場合のみ、第1の設定面720を介してレンダリングエリア20に侵入したと判定する。または、三次元モデルの一部が第1の設定面720を通った場合、第1の設定面720を介してレンダリングエリア20に侵入したと判定してもよい。例えば、予め設定した三次元モデルの割合(例えば50%以上)が第1の設定面720を通った場合、第1の設定面720を介してレンダリングエリア20に侵入したと判定してもよい。
A method for determining whether an object has entered the
または、第1の設定面720を通ったオブジェクトの表示情報として透過表示を設定して、第2の設定面を通ったオブジェクトの表示情報として通常レンダリング表示を設定してもよい。
Alternatively, transparent display may be set as the display information of the object passing through the
また、あるオブジェクトが第1の設定面720を通った場合は、そのオブジェクトの表示情報として、現在設定されている表示態様から別の表示態様に変更してもよい。この場合、表示情報設定部402は、あるオブジェクトが第2の設定面を通った場合は、そのオブジェクトの表示情報を変更しなくてもよい。例えば、あるオブジェクトが、第1の設定面720を通る前は表示情報に通常レンダリング表示が設定されていた場合、第1の設定面720を通過後に透過表示に表示態様を変更して表示情報を設定してもよい。
Further, when a certain object passes through the
また、表示情報設定部402は、レンダリングエリア20からトラッキングエリア30に退出する際に通った境界面に基づき、退出したオブジェクトの表示情報の設定を行ってもよい。その場合、レンダリングエリア20から退出する際の第1の設定面と第2の設定面と、レンダリングエリア20に侵入する際の第1の設定面と第2の設定面と、はそれぞれ異なる位置およびサイズであってもよい。
Further, the display
図8は、レンダリングエリア20の境界面を介さずに新たに出現したオブジェクトに対応付ける表示情報を設定するための図である。
FIG. 8 is a diagram for setting display information associated with a newly appearing object without going through the boundary surface of the
黒子802の表示情報には透過表示が設定されているものとする。また、黒子802は、手に、例えばペットボトルの様な小物801を持っているとする。この場合、小物801は黒子802の一部として三次元モデルが生成されてもよく、小物801は黒子802の一部として黒子802と同様に透過表示がされる。 It is assumed that transparent display is set for the display information of the mole 802 . In addition, it is assumed that Kuroko 802 has an accessory 801 such as a plastic bottle in his hand. In this case, a three-dimensional model may be generated for the small item 801 as part of the mole 802 , and the small item 801 is displayed as a part of the mole 802 in a transparent manner in the same manner as the mole 802 .
黒子802が小物801を床に落とした場合、小物801は新たなオブジェクトの三次元モデルとして認識される。床に落ちた小物801を小物801aとして表す。小物801aの三次元モデルには、識別子が付与されて、表示情報が設定されて対応付けられる。このようにレンダリングエリア20に境界面を介さず新たなオブジェクトが出現して、三次元モデルが生成される場合がある。この場合は、三次元モデルの分離元の三次元モデル(オブジェクト)に対応付けられた表示情報を引き継いで、当該新たな三次元モデルの表示情報を設定する。図8の例では、小物801aの三次元モデルに対応付ける表示情報には、黒子802の表示情報として設定された透過表示が設定される。
When Kuroko 802 drops the small item 801 on the floor, the small item 801 is recognized as a three-dimensional model of a new object. A small object 801 that has fallen to the floor is represented as a small object 801a. An identifier is assigned to the three-dimensional model of the small article 801a, and display information is set and associated with the three-dimensional model. In this way, a new object may appear in the
一方、黒子802が小物801を、別のオブジェクトであるテーブル800に置いたとする。テーブル800に置かれた小物801を小物801bと表す。この場合、小物801bはテーブル800の一部のとして、テーブル800と一体で三次元モデルが生成されてもよい。オブジェクトが分離して別のオブジェクトの一部となって三次元モデルが生成された場合、結合先の三次元モデルに対応付けられた表示情報を引き継ぐように表示情報を設定してもよい。 On the other hand, it is assumed that Kuroko 802 puts the small article 801 on the table 800 which is another object. An accessory 801 placed on the table 800 is referred to as an accessory 801b. In this case, the accessory 801b may be a part of the table 800, and a three-dimensional model may be generated integrally with the table 800. FIG. When an object is separated and becomes a part of another object to generate a three-dimensional model, the display information may be set so as to take over the display information associated with the three-dimensional model to which it is combined.
テーブル800の表示情報として通常レンダリング表示が設定されているものとすると、テーブル800に結合した小物801bは通常レンダリング表示されるようにレンダリングされることになる。さらに、小物801bがテーブル800から落ちた場合、テーブル800から分離した小物801bを小物801cとして表すと、小物801cは、分離元であるテーブル800の表示形態を引き継ぐ。このため、小物801cの表示情報には、通常レンダリング表示が設定される。 Assuming that normal rendering display is set as the display information of the table 800, the accessory 801b coupled to the table 800 will be rendered as normal rendering display. Furthermore, when the small article 801b falls from the table 800, the small article 801b separated from the table 800 is represented as the small article 801c. Therefore, normal rendering display is set in the display information of the small article 801c.
なお、三次元モデル毎に重みづけを設定してもよい。そして、異なる表示態様が表示情報に設定されている複数の三次元モデルが結合した場合は、重みづけによってどちらのオブジェクトの表示形態を引き継ぐかを決定して、オブジェクトの表示情報を設定してもよい。 Note that weighting may be set for each three-dimensional model. Then, when a plurality of 3D models whose display modes are set in the display information are combined, the display mode of which object is to be inherited is determined by weighting, and the display information of the object is set. good.
なお、S602の表示情報の設定方法は、図7で説明した設定領域を用いた方法に限られない。次に、オブジェクトの位置情報に基づき表示情報を設定する他の方法を説明する。 Note that the method of setting the display information in S602 is not limited to the method using the setting area described with reference to FIG. Another method of setting display information based on object position information will now be described.
図9は、トラッキングエリア30内に設けられた表示情報の登録エリアによって三次元モデルの表示情報を設定する方法を説明するための図である。図9に示す表示情報の設定方法では、トラッキングエリア30内に、透過モデル登録エリア910、および描画モデル登録エリア920が設けられている。
FIG. 9 is a diagram for explaining a method of setting the display information of the three-dimensional model in the display information registration area provided in the
表示情報設定部402は、オブジェクトが予め設定した期間、透過モデル登録エリア910に存在した場合、そのオブジェクトの表示情報には透過表示を設定する。一方、表示情報設定部402は、オブジェクトが予め設定した期間、描画モデル登録エリア920に存在した場合、そのオブジェクトの表示情報には、通常レンダリング表示の設定をする。
When an object exists in the transparent model registration area 910 for a preset period of time, the display
図9では、小物901は、透過モデル登録エリア910に置かれたため、表示情報に透過表示が設定されている。このためレンダリングエリア20に小物901が置かれても、小物901の三次元モデルには仮想視点画像生成部404によって透過処理される。小物902は、描画モデル登録エリア920に置かれたため、表示情報に通常レンダリング表示が設定されている。このためレンダリングエリア20に小物902が置かれると、小物902の三次元モデルには仮想視点画像生成部404によって通常レンダリング処理される。
In FIG. 9, since the accessory 901 is placed in the transparent model registration area 910, transparent display is set in the display information. Therefore, even if the small article 901 is placed in the
図9では、透過モデル登録エリア910、および描画モデル登録エリア920は、レンダリングエリア20外に定義されている例を示しているが、レンダリングエリア20の中に定義してもよい。また、小物ではなく人物や動物など他の三次元モデルでも同様に処理される。
Although FIG. 9 shows an example in which the transparent model registration area 910 and the drawing model registration area 920 are defined outside the
また、表示情報に透過表示が設定されたため透過処理された小物901が、既に通常レンダリング表示が設定されたテーブル904の上に置かれた場合でも、小物901の表示情報は変更しなくてもよく、透過処理を継続させてもよい。同様に、表示情報に通常レンダリング表示が設定されたため通常レンダリング処理された小物902を既に透過表示が設定された黒子903が持った場合でも、小物902の表示情報は変更しなくてもよく、通常レンダリング処理を継続させてもよい。 Also, even if the small object 901 that has undergone transparent processing because the display information is set to transparent display is placed on the table 904 that has already been set to normal rendering display, the display information of the small object 901 does not need to be changed. , the transparency process may be continued. Similarly, even if a mole 903 that has already been set to transparent display holds the small object 902 that has undergone normal rendering processing because the normal rendering display has been set in the display information, the display information of the small object 902 does not need to be changed. Rendering may continue.
また、図9では、透過モデル登録エリア910、および描画モデル登録エリア920は、それぞれ1か所だけ設けられている例を図示しているが、複数個所、設けられてもしてもよい。 In addition, although FIG. 9 illustrates an example in which only one transmissive model registration area 910 and drawing model registration area 920 are provided, they may be provided in a plurality of places.
また、表示情報設定部402は、あるオブジェクトが所定の登録エリアに所定の期間、存在していた場合、現在設定されている表示態様から別の表示態様に変更するように、そのオブジェクトに対応付けられた表示情報を設定してもよい。例えば、ある表示情報に透過表示が設定されていたオブジェクトが、透過モデル登録エリア910に所定の期間、存在していた場合、通常レンダリング表示に表示態様を変更して表示情報を設定してもよい。
In addition, when an object exists in a predetermined registration area for a predetermined period of time, the display
次に、S602の表示情報の設定方法として、図6、図9で説明したオブジェクトの位置情報に基づく方法以外の方法を説明する。 Next, as a method of setting display information in S602, a method other than the method based on the position information of the object described with reference to FIGS. 6 and 9 will be described.
図10は、三次元モデルから所定のジェスチャを検知して、ジェスチャに基づいて表示情報を設定する方法を説明するための図である。図10の黒子1001は手を開き横に振っている。表示情報設定部402は、手を開き横に振ったジェスチャを検知した場合、そのジェスチャを行ったオブジェクトの表示情報として通常レンダリング表示を設定する。このため、図1の黒子1001は、透過処理されていたが、通常レンダリング処理に変更されて表示されたことを示している。一方、黒子1002は、手を握った状態で縦に振っている。表示情報設定部402は、手を握って縦に振ったジェスチャを検知した場合、そのジェスチャを行ったオブジェクトの表示情報として透過表示を設定にする。このため、図10の黒子1002は、通常レンダリング処理されていたが、透過処理に変更されて仮想視点画像上に表現されたことを示している。
FIG. 10 is a diagram for explaining a method of detecting a predetermined gesture from a 3D model and setting display information based on the gesture. Kuroko 1001 in FIG. 10 is waving his hand to the side. When the display
なお、表示情報を設定するためのジェスチャのパターンについては上記のパターンに限定するわけではなく、異なるジェスチャでもよい。例えばジャンプする、首をふる、回転するなど他のジェスチャでもよいし、複数のジェスチャを定義してもよい。ジェスチャは動作に限らず、手を挙げた状態など所定のポーズでもよい。また、複数のジェスチャの組み合わせによって表示形態を決定してもよい。 Note that the gesture pattern for setting display information is not limited to the above pattern, and a different gesture may be used. Other gestures, such as jumping, shaking the head, rotating, etc., may also be used, and multiple gestures may be defined. A gesture is not limited to an action, and may be a predetermined pose such as a raised hand. Also, the display mode may be determined by a combination of a plurality of gestures.
S602において表示情報設定部402が実行する表示情報の設定方法として、図7の設定面を用いる方法、図8の分離元の表示情報を引きつぐ方法、図9の登録エリアを設ける方法、図10のジェスチャに基づく方法を説明した。S602において表示情報設定部402は、図7から図10で説明した表示情報の設定方法のうちのいずれかの方法を選択して、表示情報を設定してもよいし、複数の手段を組み合わせて設定してもよい。
As the display information setting method executed by the display
以上説明したように本実施形態によれば、オブジェクトのそれぞれの表示情報を設定することができるため、演出に応じて、夫々のオブジェクトが所望の表示態様で表されるように仮想視点画像を生成することができる。 As described above, according to the present embodiment, display information for each object can be set, so that a virtual viewpoint image is generated so that each object is represented in a desired display mode in accordance with the rendering. can do.
なお、仮想カメラの画角内に表示情報が変更されたオブジェクトが存在すると、動画で仮想視点画像を表示した場合、突然、オブジェクトが出現したり消滅したりすることになる。このため、仮想カメラの画角内のオブジェクトの表示情報を変更すると、視聴者に違和感を与えてしまう虞がある。視聴者の違和感を抑制するため、表示情報が変更されるオブジェクトが映りこまないように、仮想視点画像生成部404は、仮想カメラの画角を変更し仮想視点画像を生成してもよい。
If an object whose display information has been changed exists within the angle of view of the virtual camera, the object suddenly appears or disappears when the virtual viewpoint image is displayed as a moving image. Therefore, if the display information of the object within the angle of view of the virtual camera is changed, the viewer may feel uncomfortable. In order to suppress the viewer's discomfort, the virtual viewpoint
例えば、仮想視点画像生成部404は、仮想視点パス生成装置500に表示情報が変更されるオブジェクトがいることを通知する。通知を受けた仮想視点パス生成装置500は、表示情報が変更されるオブジェクトが映りこまないように、仮想カメラの位置および方向を変更して、変更後の仮想カメラの情報を仮想視点画像生成部404に送信する。また、仮想視点パス生成装置500が表示情報の変更がされるオブジェクトが映りこまない画角の仮想カメラに変更するまで、仮想視点画像生成部404は、前のフレームから表示態様が変更されないように仮想視点画像の生成処理を実行してもよい。
For example, the virtual viewpoint
また、フレームによっては、レンダリングエリア20内と外との境界にオブジェクトが存在する場合、境界に存在するオブジェクトに設定する表示情報を上記で説明した方法によらないで設定してもよい。
Also, depending on the frame, if an object exists on the boundary between the inside and the outside of the
図11は、レンダリングエリア20の境界にいるオブジェクトを示す図である。黒子1101に対応付けられた表示情報には通常レンダリング表示が設定されているものとする。また黒子1101は、レンダリングエリア20の外からレンダリングエリア20の中に入ろうとしているため、レンダリングエリア20の境界に存在しているものとする。この場合、仮想視点画像生成部404が、黒子1101の三次元モデルに対して通常レンダリング処理を行うと、レンダリングエリア20に含まれる部分のみがレンダリングされることになる。このため、レンダリングエリア20の外の中との境界にいるオブジェクトの三次元モデルに通常レンダリング処理を行って仮想視点画像を生成すると、生成された仮想視点画像は視聴者に違和感を与えることがある。
FIG. 11 is a diagram showing objects on the boundary of the
視聴者の違和感を抑制するため、表示情報設定部402は、黒子1101の三次元モデルの全てがレンダリングエリア20の中に入るまでは、黒子1101の表示情報として透過表示を設定する。そして、表示情報設定部402は、黒子1101の三次元モデルの全てがレンダリングエリア20の中に入った後、黒子1101の表示態様を通常レンダリング表示に変更するように表示情報を設定してもよい。
In order to suppress the viewer's discomfort, the display
一方、レンダリングエリア20内の黒子が通常レンダリング表示されており、レンダリングエリア20の外にその黒子の手や足先などが出てしまった場合、黒子は、そのまま通常レンダリング表示されるのが好ましい。このため、三次元モデルの一部(一定の割合、特定の部分など)がレンダリングエリア20の中または外に出たかに応じて表示情報を変更してもよい。
On the other hand, if a mole in the
例えば、レンダリングエリア20の内にある三次元モデルの体積の比率で、そのオブジェクトの表示情報に通常レンダリング表示を設定するか透過表示を設定するかを切り替えてもよい。例えば、通常レンダリング表示が設定されている三次元モデルの一部がレンダリングエリア20外に出た場合、レンダリングエリア20外に出た部分の体積が、そのオブジェクトの三次元モデルの全体の30%を超えたら透過表示に切り替えて表示情報を設定する。一方、透過表示が設定されている三次元モデルの一部がレンダリングエリア20に入った場合、レンダリングエリア20に入った部分の体積が、そのオブジェクトの三次元モデルの全体の50%を超えたら通常レンダリング表示に表示情報を変更してもよい。
For example, depending on the volume ratio of the three-dimensional model within the
<その他の実施形態>
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present disclosure provides a program that implements one or more functions of the above-described embodiments to a system or device via a network or storage medium, and one or more processors in a computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
100 撮像装置
400 仮想視点画像生成装置
402 表示情報設定部
404 仮想視点画像生成部
100
Claims (18)
前記オブジェクトが前記設定された表示態様で表されるように、前記仮想視点画像を生成する生成手段と、
を有することを特徴とする画像処理装置。 setting means for setting, based on at least one of a position of the object and a gesture of the object, a display mode of the object in a virtual viewpoint image generated based on captured images obtained by imaging the object with a plurality of imaging devices; ,
generating means for generating the virtual viewpoint image so that the object is represented in the set display mode;
An image processing device comprising:
ことを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein, when an object passes through a predetermined area, the setting means sets a display mode corresponding to the predetermined area to the object that has passed through the predetermined area. .
ことを特徴とする請求項1に記載の画像処理装置。 wherein, when the object passes through the predetermined area, the setting means changes the display mode of the object that has passed through the predetermined area to a display mode different from the currently set display mode. Item 1. The image processing apparatus according to item 1.
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 The generating means generates the virtual viewpoint image such that an object existing in a rendering space included in the space in which the plurality of imaging devices are arranged is represented in a display mode set for the object. The image processing apparatus according to any one of claims 1 to 3, wherein:
ことを特徴とする請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, further comprising acquisition means for acquiring a position of an object existing in a space having the same size as said rendering space or a space larger than said rendering space.
オブジェクトが前記描画空間の境界に設定された所定の領域を通過して前記描画空間に入った場合、前記所定の領域を通過したオブジェクトの表示態様として第1の表示態様を設定し、オブジェクトが前記境界のうち前記所定の領域以外の他の領域を通過して前記描画空間に入った場合、前記他の領域を通過したオブジェクトの表示態様として前記第1の表示態様とは異なる第2の表示態様を設定する
ことを特徴とする請求項4または5に記載の画像処理装置。 The setting means
When an object enters the drawing space through a predetermined area set as a boundary of the drawing space, a first display mode is set as the display mode of the object that has passed through the predetermined area, and the object enters the drawing space. When the drawing space is entered by passing through an area other than the predetermined area of the boundary, a second display mode different from the first display mode is used as the display mode of the object that has passed through the other area. The image processing apparatus according to claim 4 or 5, characterized by: setting
前記描画空間にオブジェクトの一部のみが含まれる場合、前記描画空間に前記一部のみが含まれるオブジェクトの全体のうちの前記一部の割合に基づき、該オブジェクトの表示態様を設定する
ことを特徴とする請求項4から6のいずれか1項に記載の画像処理装置。 The setting means
when only a part of an object is included in the drawing space, the display mode of the object is set based on the ratio of the part to the whole of the object whose part is included in the drawing space. 7. The image processing apparatus according to any one of claims 4 to 6.
前記描画空間にオブジェクトの一部のみが含まれる場合、前記描画空間に前記一部のみが含まれるオブジェクトが透過して表示されるように、該オブジェクトの表示態様を設定する
ことを特徴とする請求項7のいずれか1項に記載の画像処理装置。 The setting means
wherein, when only a part of an object is included in the drawing space, a display mode of the object is set so that the object whose part is included in the drawing space is transparently displayed. Item 8. The image processing device according to any one of Item 7.
オブジェクトが所定の領域に所定の期間、存在した場合、前記所定の領域に存在していたオブジェクトの表示態様を、現在設定されている表示態様とは別の表示態様に変更する
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。 The setting means
When an object exists in a predetermined area for a predetermined period of time, the display mode of the object existing in the predetermined area is changed to a display mode different from the currently set display mode. The image processing apparatus according to any one of claims 1 to 8.
オブジェクトが第1の期間、第1の領域に存在した場合、前記第1の領域に存在していたオブジェクトの表示態様として第1の表示態様を設定し、
オブジェクトが第2の期間、前記第1の領域とは異なる第2の領域に存在した場合、前記第2の領域に存在していたオブジェクトの表示態様として前記第1の表示態様とは異なる第2の表示態様を設定する
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。 The setting means
setting a first display mode as a display mode of the object existing in the first area when the object exists in the first area for a first period of time;
When an object exists in a second area different from the first area for a second period, the display mode of the object existing in the second area is the second display mode different from the first display mode. The image processing apparatus according to any one of claims 1 to 8, wherein the display mode of is set.
前記複数の撮像装置が撮像して得られた撮像画像に基づき生成されたオブジェクトの三次元形状データを取得して前記仮想視点画像を生成し、
前記設定手段は、
第1のオブジェクトと一体として前記三次元形状データが生成された第2のオブジェクトについては、前記第1のオブジェクトの一部として表示態様を設定し、
前記第1のオブジェクトから分離して前記第2のオブジェクトの前記三次元形状データが生成された場合、分離した前記第2のオブジェクトの表示形態として、前記第1のオブジェクトの表示態様と同じ表示態様を設定する
ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。 The generating means is
Acquiring three-dimensional shape data of an object generated based on captured images obtained by imaging by the plurality of imaging devices to generate the virtual viewpoint image;
The setting means
For a second object for which the three-dimensional shape data has been generated integrally with the first object, setting a display mode as part of the first object,
When the three-dimensional shape data of the second object is generated by separating from the first object, the display mode of the separated second object is the same as the display mode of the first object. 11. The image processing apparatus according to any one of claims 1 to 10, wherein is set.
オブジェクトが所定のジェスチャを行った場合、前記所定のジェスチャを行ったオブジェクトに、前記所定のジェスチャに対応する表示態様を設定する
ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。 The setting means
12. The method according to any one of claims 1 to 11, wherein when an object performs a predetermined gesture, a display mode corresponding to the predetermined gesture is set for the object that performed the predetermined gesture. Image processing device.
ことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。 The display mode set for the object by the setting means includes at least a display mode in which the object is displayed by projecting and drawing the texture of the captured image, and a display mode in which the object is displayed in a transparent manner. The image processing apparatus according to any one of claims 1 to 12.
複数のオブジェクトが存在する場合、前記複数のオブジェクトごとに表示態様を設定する
ことを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。 The setting means
14. The image processing apparatus according to any one of claims 1 to 13, wherein when a plurality of objects exist, a display mode is set for each of the plurality of objects.
ことを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。 15. The image processing apparatus according to any one of claims 1 to 14, further comprising managing means for managing the set display mode in association with the three-dimensional shape data of the object.
仮想視点に対応する前記仮想視点画像を生成し、
仮想視点に対応する画角内に、表示態様が変更されるオブジェクトがある場合、前記表示態様が変更されるオブジェクトが画角に含まれない仮想視点に変更して前記仮想視点画像を生成する
ことを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。 The generating means is
generating the virtual viewpoint image corresponding to the virtual viewpoint;
When there is an object whose display mode is to be changed within an angle of view corresponding to the virtual viewpoint, the virtual viewpoint image is generated by changing the virtual viewpoint to a virtual viewpoint whose angle of view does not include the object whose display mode is to be changed. The image processing apparatus according to any one of claims 1 to 15, characterized by:
前記オブジェクトが前記設定された表示態様で表されるように、前記仮想視点画像を生成する生成ステップと、
を有することを特徴とする画像処理方法。 a setting step of setting, based on at least one of a position of the object and a gesture of the object, a display mode of the object in a virtual viewpoint image generated based on captured images obtained by imaging the object with a plurality of imaging devices; ,
a generation step of generating the virtual viewpoint image such that the object is represented in the set display mode;
An image processing method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021122238A JP2023018253A (en) | 2021-07-27 | 2021-07-27 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021122238A JP2023018253A (en) | 2021-07-27 | 2021-07-27 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023018253A true JP2023018253A (en) | 2023-02-08 |
Family
ID=85158125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021122238A Pending JP2023018253A (en) | 2021-07-27 | 2021-07-27 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023018253A (en) |
-
2021
- 2021-07-27 JP JP2021122238A patent/JP2023018253A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11463678B2 (en) | System for and method of social interaction using user-selectable novel views | |
US10582191B1 (en) | Dynamic angle viewing system | |
KR20190124766A (en) | Mixed Reality Viewer System and Methods | |
JP2019016161A (en) | Image processing device and control method thereof | |
US11200690B2 (en) | Image processing apparatus, three-dimensional shape data generation method, and non-transitory computer readable storage medium | |
JP2019003428A (en) | Image processing device, image processing method, and program | |
JP7403967B2 (en) | Information processing device, video generation device, image processing system, control method and program thereof | |
US11195322B2 (en) | Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium | |
JP2024019537A (en) | Image processing device, image processing method, and program | |
JP2023018253A (en) | Image processing apparatus, image processing method, and program | |
JP2022012900A (en) | Information processing apparatus, display method, and program | |
JP2022039374A (en) | Image processing apparatus, image processing system, image processing method, and program | |
US20230177767A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20240046552A1 (en) | Generation apparatus, generation method, and non-transitory computer-readable storage medium | |
US20220408069A1 (en) | Information processing apparatus, information processing method, and storage medium | |
US20230334767A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2021018570A (en) | Image processing apparatus, image processing system, image processing method and program | |
JP2021149192A (en) | Image processing device, image processing method, and program | |
JP2023080290A (en) | Information processing apparatus, control method of the same and program | |
JP2023183059A (en) | Information processing device, information processing method, and computer program | |
JP2023084843A (en) | Image processing apparatus, image processing method, and program | |
JP2019118042A (en) | Image processing device, image processing method and program |