JP2021033347A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2021033347A JP2021033347A JP2019148819A JP2019148819A JP2021033347A JP 2021033347 A JP2021033347 A JP 2021033347A JP 2019148819 A JP2019148819 A JP 2019148819A JP 2019148819 A JP2019148819 A JP 2019148819A JP 2021033347 A JP2021033347 A JP 2021033347A
- Authority
- JP
- Japan
- Prior art keywords
- model
- time
- image processing
- interpolation
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
本発明は、仮想視点画像データを生成するための技術に関する。 The present invention relates to a technique for generating virtual viewpoint image data.
複数の撮像装置を異なる位置に設置し、それら複数の撮像装置で複数視点から同期撮像して得られた複数の撮像画像データ(複数視点画像データ)を用いて仮想視点からの見えを表す仮想視点画像データを生成する技術がある。仮想視点画像データは、複数視点画像データから生成されるオブジェクトの3次元形状データである3Dモデルと、撮像画像データとを用いてレンダリングすることで生成される。なお、仮想視点画像データが動画データである場合は、仮想視点画像データを構成する各フレーム画像に対応する3Dモデルに対してレンダリングが行われる。 A virtual viewpoint that expresses the view from a virtual viewpoint by installing a plurality of imaging devices at different positions and using a plurality of captured image data (multi-viewpoint image data) obtained by synchronously imaging the plurality of imaging devices from a plurality of viewpoints. There is a technology to generate image data. The virtual viewpoint image data is generated by rendering using a 3D model, which is three-dimensional shape data of an object generated from a plurality of viewpoint image data, and captured image data. When the virtual viewpoint image data is moving image data, rendering is performed on the 3D model corresponding to each frame image constituting the virtual viewpoint image data.
この仮想視点画像データは、複数視点画像データのみを用いて生成された場合、複数視点画像データと等しいフレームレートで生成されるが、仮想視点画像データの配信においては、他の異なる様々なフレームレートでの配信も求められる。これは、仮想視点画像データを再生し、視聴するデバイスごとに、そのデバイスの処理能力に応じて異なるフレームレートに調整する、あるいは再生速度を変更しても同一のフレームレートで視聴する、などといったことを可能にするためである。 When this virtual viewpoint image data is generated using only the multiple viewpoint image data, it is generated at the same frame rate as the multiple viewpoint image data, but in the distribution of the virtual viewpoint image data, various other different frame rates are used. Delivery is also required. This means that the virtual viewpoint image data is played back and adjusted to a different frame rate according to the processing capacity of the device for viewing, or the same frame rate is viewed even if the playback speed is changed. This is to make it possible.
このようなニーズに対して、非特許文献1では、既存の3Dモデルを構成するメッシュの頂点を時間的にトラッキングし、それら頂点を既存の3Dモデルが存在しない時間帯において内挿し、より短い時間間隔で3Dモデルを生成している。これにより、任意のフレームレートの仮想視点画像データの各フレーム画像に対応する3Dモデルを生成することができる。
In response to such needs, Non-Patent
しかしながら、この従来技術を用いてユーザが要求する可能性のある全てのフレームレートに対応した3Dモデルを予め生成しておくことは、記憶領域や処理コストの面で現実的ではない。一方で、フレームレート変更の要求がある度に指定されたフレームレートに対応する3Dモデルを生成し、その3Dモデルに対してレンダリングを行って仮想視点画像データを生成していては、フレームレート変更の要求から再生までの遅延が大きく実用的でない。 However, it is not realistic in terms of storage area and processing cost to generate in advance a 3D model corresponding to all frame rates that the user may request by using this conventional technique. On the other hand, if a 3D model corresponding to the specified frame rate is generated each time there is a request to change the frame rate, and the 3D model is rendered to generate virtual viewpoint image data, the frame rate is changed. There is a large delay from the request to playback, which is not practical.
そのため本発明では、既存の3Dモデルを用いて、適切に3Dモデルを生成することを目的とする。 Therefore, it is an object of the present invention to appropriately generate a 3D model using an existing 3D model.
本発明に一つの態様は、オブジェクトの3次元形状を表す、タイムコードと対応付けられた第1の3Dモデルを取得する取得手段と、2つの連続するタイムコードと対応付けられた2つの第1の3Dモデルと、当該2つの第1の3Dモデルの移動速度とに基づき、当該2つの連続するタイムコードが示すタイムの間のタイムに対応する第2の3Dモデルを生成する生成手段と、を備えることを特徴とする画像処理装置である。 One aspect of the present invention is an acquisition means for acquiring a first 3D model associated with a time code representing a three-dimensional shape of an object, and two first aspects associated with two consecutive time codes. 3D model and a generation means for generating a second 3D model corresponding to the time between the times indicated by the two consecutive time codes based on the moving speeds of the two first 3D models. It is an image processing apparatus characterized by being provided.
本発明により、既存の3Dモデルを用いて、適切に3Dモデルを生成することができる。 According to the present invention, an existing 3D model can be used to appropriately generate a 3D model.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. The same configuration will be described with the same reference numerals.
本発明は、仮想視点画像データに含まれるオブジェクトに関わらず適用可能であるが、本実施例においてはサッカーの試合を撮像対象とし、スタジアム、人、ボールなどをオブジェクトとする仮想視点画像生成システムについて説明する。 The present invention can be applied regardless of the objects included in the virtual viewpoint image data, but in the present embodiment, the virtual viewpoint image generation system in which a soccer game is imaged and a stadium, a person, a ball, etc. are objects. explain.
仮想視点画像生成は、仮想視点画像データの生成のために用いられるものである。仮想視点画像生成は、複数の撮像装置による同期撮像により得られた複数の画像データと、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像データを生成するステムである。本実施形態における仮想視点画像データが表す仮想視点画像は、自由視点映像とも呼ばれるものである。但し、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。 Virtual viewpoint image generation is used for generating virtual viewpoint image data. The virtual viewpoint image generation generates virtual viewpoint image data representing the appearance from a specified virtual viewpoint based on a plurality of image data obtained by synchronous imaging by a plurality of imaging devices and a designated virtual viewpoint. It is a stem. The virtual viewpoint image represented by the virtual viewpoint image data in the present embodiment is also called a free viewpoint image. However, the virtual viewpoint image is not limited to the image corresponding to the viewpoint freely (arbitrarily) specified by the user, and includes, for example, an image corresponding to the viewpoint selected by the user from a plurality of candidates. Further, in the present embodiment, the case where the virtual viewpoint is specified by the user operation will be mainly described, but the virtual viewpoint may be automatically specified based on the result of image analysis or the like.
図1を用いて、本実施例が対象とする仮想視点画像生成システムの構成について説明する。スタジアムにて複数のカメラ101をスタジアム内に配置する。オブジェクト102は、本システムのオブジェクトとなる存在で、例えば選手や審判、ボールなどである。複数のカメラ101は同期撮像した画像を情報処理装置103へ伝送する。
The configuration of the virtual viewpoint image generation system targeted by this embodiment will be described with reference to FIG. At the stadium, a plurality of
なお、図1においては複数のカメラ101と情報処理装置103はスター型に接続されているが、ディジーチェーン型に接続してもよい。情報処理装置103には、伝送された画像及び情報処理装置103の処理結果を表示する表示装置104と、情報処理装置103への入力を行うための入力装置105が接続される。
Although the plurality of
情報処理装置103は、ネットワークを介したPCやタブレット、スマートフォンなどのユーザ端末106、107からの要求に応じて、生成した仮想視点画像データを配信することができる。ユーザ端末106、107は、情報処理装置103に対して再生する仮想視点画像データの指定、再生区間の指定、仮想視点の指定、フレームレートの指定などを行うことができる。
The
図2を用いて、情報処理装置103のハードウェア構成について説明する。情報処理装置103は、CPU211、ROM212、RAM213、補助記憶装置214、表示I/F215、操作I/F216、通信I/F217、及びバス218を有する。表示I/F215、操作I/F216は、CPU211が、表示装置104を制御する表示制御部、及び操作部216を制御する操作制御部として動作する。
The hardware configuration of the
CPU211は、ROM212やRAM213に格納されているコンピュータプログラムやデータを用いて情報処理装置103の全体を制御することで、図1に示す情報処理装置103の各機能を実現する。なお、情報処理装置103がCPU211とは異なる1又は複数の専用のハードウェアを有し、CPU211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、及びDSP(デジタルシグナルプロセッサ)などがある。ROM212は、変更を必要としないプログラムなどを格納する。RAM213は、補助記憶装置214から供給されるプログラムやデータ、及び通信I/F217を介して外部から供給されるデータなどを一時記憶する。補助記憶装置214は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
The
表示装置104は、例えば液晶ディスプレイやLED等で構成され、情報処理装置103を操作するためのGUI(Graphical User Interface)などを表示する。入力装置105は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。
The
通信I/F217は、情報処理装置103の外部の装置との通信に用いられる。例えば、情報処理装置103が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F217に接続される。情報処理装置103が外部の装置と無線通信する機能を有する場合には、通信I/F217はアンテナを備える。また、通信I/F217は、ネットワーク108に接続して、ネットワーク108を介したユーザ端末106、107など外部の装置との間でのデータ通信を行うために用いられる。
The communication I /
バス218は、情報処理装置103の各部をつないで情報を伝達する。
The
本実施形態では表示装置104と入力装置105が情報処理装置103の外部に別の装置として存在するものとするが、表示装置104と入力装置105との少なくとも一方が情報処理装置103の内部に存在していてもよい。この場合、CPU211が、表示装置104を制御する表示制御部、及び操作部216を制御する操作制御部として動作してもよい。
In the present embodiment, it is assumed that the
図3は、本実施形態における仮想視点画像データ生成処理を行う情報処理装置103の機能構成を示すブロック図である。
FIG. 3 is a block diagram showing a functional configuration of the
複数視点画像撮像部301は、複数のカメラ101を時間的に同期させて撮像し、複数視点画像データを取得する。ここで、複数視点画像データの各フレーム画像データが生成された撮像時刻は、撮像開始時点を基準とする撮像時間における時刻を示すことなる。一方、後述の処理において用いる時刻(モデル時刻(基礎時刻、内挿時刻)、フレーム時刻)は、撮像時間の時間軸とは別の時間軸上の時刻を指すため、本開示ではコンテンツ時間における時刻とする。但し、基礎時刻は、複数視点画像データの各フレーム画像データと一対一に対応する時刻であり、内挿時刻は、フレーム画像データ間に相当する時刻となる。
The multi-viewpoint
基礎モデル生成部302は、複数視点画像撮像部301から同期撮像されたて得られた撮像画像データを取得し、後述の基礎モデル生成処理によって撮像画像データと同じフレームレートの3次元形状データである基礎3Dモデルを生成する。
The basic
モデル記憶部303は、基礎モデル生成部302で生成された基礎3Dモデル、モデル接合情報、及びモデル内挿部306で生成された内挿3Dモデルなどを記憶する。
The
モデル解析部304は、モデル記憶部303から基礎3Dモデルを取得し、メッシュトラッキングと動きベクトルの計算を行い、各3Dモデルの速度情報を取得する。
The
内挿時刻決定部305は、各3Dモデルについて内挿を行うコンテンツ時間における内挿時刻を決定する。本実施形態では、内挿時刻が設定されているか否かによって内挿を行うか否かを決定するため、内挿時刻決定部305は内挿決定機能も有している。
The interpolation
モデル内挿部306は、基礎3Dモデルと速度情報である動きベクトルとを基に内挿時刻決定部305で決定した内挿時刻の内挿3Dモデルを生成し、その内挿時刻をあらわすタイムコードとともに生成した内挿3Dモデルをモデル記憶部303に格納する。
The
モデル取得部307は、入出力部309を介したユーザからの任意のフレームレートの指定を受け、モデル記憶部303に記憶された内挿3Dモデルを含む3Dモデルから指定されたフレームレートに必要なフレーム画像データに対応する3Dモデルを取得する。
The
仮想視点画像データ生成部308は、モデル取得部307が取得した3Dモデルを用いて、指定のフレームレートの配信用仮想視点画像データを生成して入出力部309に送る。
The virtual viewpoint image
なお、本実施形態における配信用仮想視点画像データは、ユーザが指定するフレームレートで各フレームにおける3Dモデルの情報をOBJフォーマットで記録したデータとする。ユーザは、これをユーザ端末において仮想視点画像データ再生ソフトウェア等で再生することで視聴を行う。なお、OBJ以外のフォーマットで3Dモデルの情報を記述したり、3Dモデルの情報の容量圧縮を行ったり、ストリーミング配信の形式を取ったりしてもよい。 The distribution virtual viewpoint image data in the present embodiment is data in which the information of the 3D model in each frame is recorded in the OBJ format at the frame rate specified by the user. The user views the image by reproducing it on the user terminal with virtual viewpoint image data reproduction software or the like. The 3D model information may be described in a format other than OBJ, the capacity of the 3D model information may be compressed, or a streaming distribution format may be used.
図4は、本実施形態の基礎モデル生成処理のフローチャートである。本フローは、複数視点画像撮像部301によって新たな画像の同期撮像が行われて得られた複数視点画像データを情報処理装置103が受信したタイミングで実行される。
FIG. 4 is a flowchart of the basic model generation process of the present embodiment. This flow is executed at the timing when the
S401において、基礎モデル生成部302は複数視点画像撮像部301から複数のカメラ101によって時間的に同期させて撮像されて得られた複数視点画像データを取得する。
In S401, the basic
S402において、基礎モデル生成部302は、S401において取得した複数視点画像データを用いて、イメージベースドモデリングの技法によって基礎3Dモデルの生成を行う。ここで、基礎3Dモデルを含む3Dモデルは、3Dモデルを構成する頂点の位置のリストとメッシュを構成する頂点、辺及び面に関するメッシュ情報のリストとによって表現される。基礎3Dモデルは、任意のフレームレートの仮想視点画像データを生成するための元となる3Dモデルとして、コンテンツ時間における原モデル時刻を示すタイムコードとともにモデル記憶部303に格納する。
In S402, the basic
ここで、撮像画像中に写るオブジェクトのうち、イメージベースドモデリングにおいて3Dモデルの生成を行う対象とするものの選択は自由である。本実施形態ではサッカースタジアムに設置された仮想視点画像データ生成システムとしているため、3Dモデルを生成するオブジェクトとしては、「選手」と「サッカーボール」を対象とする。 Here, among the objects captured in the captured image, the object for which the 3D model is generated in the image-based modeling can be freely selected. In the present embodiment, since the virtual viewpoint image data generation system installed in the soccer stadium is used, "player" and "soccer ball" are targeted as the objects for generating the 3D model.
S403において、基礎モデル生成部302は、S402で生成された基礎3Dモデルの分割を行う。ここで、各基礎3Dモデルを共通の動きをする部位ごとに分割し、各部位を個別の3Dモデルとして扱う。一定以上の動きのある部位についてのみ内挿することで、内挿3Dモデルを生成するための処理量を低減することができる。これにより、任意のフレームレートの仮想視点画像データに対応する3Dモデルを効率的に生成することができる。
In S403, the basic
なお、基礎3Dモデルの分割する部位の検出方法としては、例えば、機械学習を利用してオブジェクトごとに各部位の3Dモデルを学習させ、その学習結果に基づき各部位を検出する方法がある。また各部位の3Dモデルを直接検出する代わりに、3Dモデルの断面図を一方の端から他方の端に向かって見ていき、断面図の大きさの変化から部位間の接合部を検出することで各部位を検出する方法もある。 As a method of detecting the divided parts of the basic 3D model, for example, there is a method of learning a 3D model of each part for each object by using machine learning and detecting each part based on the learning result. Also, instead of directly detecting the 3D model of each part, look at the cross-sectional view of the 3D model from one end to the other, and detect the joint between the parts from the change in the size of the cross-sectional view. There is also a method of detecting each part with.
分割する部位は、例えば、人間の腕部と胴体では動きの細かさ、速さが異なることが多いため、この2つの部位は異なる分割モデルとして扱うと効率的である。本実施形態では、ボールは分割せず単一の部位とし、人は頭部、胴体、左腕、右腕、左足、右足の6部位に分割するものとする。なお、分割する部位の数は6つに限定されず、例えば腕を肩から肘、肘から手首、手首から指先とさらに3つに分割してもよく、足も同様にさらに3つに分割し、全体で14部位に分割してもよい。また、オブジェクトの動きの特性に合わせて分割する部位数や分割位置は変えてもよい。 As for the parts to be divided, for example, the fineness and speed of movement are often different between the human arm and the body, so it is efficient to treat these two parts as different division models. In the present embodiment, the ball is not divided into a single part, and the person is divided into six parts: the head, the torso, the left arm, the right arm, the left foot, and the right foot. The number of parts to be divided is not limited to six. For example, the arm may be further divided into three parts: shoulder to elbow, elbow to wrist, wrist to fingertip, and the foot may be further divided into three parts. , It may be divided into 14 parts in total. Further, the number of parts to be divided and the division position may be changed according to the characteristics of the movement of the object.
さらに、分割する部位を上記のように予め決めておかずに、移動量が閾値以上の頂点からなる部分と閾値未満の頂点からなる部分とに分割するようにしてもよい。 Further, the portion to be divided may not be determined in advance as described above, but may be divided into a portion consisting of vertices having a movement amount equal to or more than the threshold value and a portion consisting of vertices having a movement amount less than the threshold value.
なお、上記基礎3Dモデルの分割処理とは、具体的には、分割部位情報と、分割される部位間の接合部の情報であるモデル接合情報とを、モデル記憶部303に基礎3Dモデルと合わせて格納することである。分割部位情報とは、分割する部位ごとの頂点のインデックスのリストであり、モデル接合情報とは接合する部位間で共有される頂点のインデックスのリストである。このモデル接合情報により、後述するモデル取得部307での分割された部位ごとの内挿3Dモデルの適切な結合(合成)が可能となる。
In the division processing of the basic 3D model, specifically, the division part information and the model joining information which is the information of the joints between the divided parts are combined with the basic 3D model in the
本実施形態では、人間形状の基礎3Dモデルを分割する際には、胴体と他5部位(頭部、左腕、右腕、左足、右足)とのモデル接合情報をモデル記憶部303に格納する。この場合、いずれの接合部も接合する部位の数は2つである。そして頭部、左腕、右腕、左足、右足の各部位は接合部が1つであり、部位間で共有する頂点のインデックスのリストを作成してモデル接合情報とする。一方、胴体の部位は接合部が5つであり、5つの接合部全てについて部位間で共有する頂点のインデックスのリストを作成してモデル接合情報とする。
In the present embodiment, when the basic 3D model of the human shape is divided, the model joining information between the torso and the other five parts (head, left arm, right arm, left foot, right foot) is stored in the
図5は本実施例の補間モデル生成処理のフローチャートである。本フローは、基礎モデル生成部302によってモデル記憶部303に新たな原モデル時刻の新規基礎3Dモデルが格納されたタイミングで、その新たな原モデル時刻の新規の基礎3Dモデルとその直前の原モデル時刻の基礎3Dモデルとを対象として実行される。なお、内挿3Dモデルの生成は、オブジェクト単位で行われ、オブジェクトごとに生成される内挿3Dモデルの数は異なっていてもよい。
FIG. 5 is a flowchart of the interpolation model generation process of this embodiment. In this flow, when the new basic 3D model of the new original model time is stored in the
S501において、モデル解析部304は、内挿3Dモデル生成の対象となる連続した2つの原モデル時刻の、部位ごとに分割された基礎3Dモデル、すなわち基礎3Dモデルと分割部位情報とを取得する。ここで、2つの基礎3Dモデルのうち、先の基礎3Dモデル時刻T1のものを基礎3DモデルM(T1)、後の原モデル時刻T2のものを基礎3DモデルM(T2)とする。
In S501, the
図6は、実施形態における連続するモデル時刻の基礎3Dモデル例を示す図である。本実施形態では、選手の基礎3Dモデルは、分割部位情報に基づき、頭部11、右腕12、左腕13、胴体14、右足15、左足16に分割される。
FIG. 6 is a diagram showing an example of a basic 3D model of continuous model time in the embodiment. In the present embodiment, the player's basic 3D model is divided into a
S502において、モデル解析部304は、S501で取得した分割された部位を含む基礎3DモデルM(T1)、M(T2)について、その部位ごとに動きベクトルを算出する。本実施形態では、距離を用いた単純な頂点マッチングを用いてメッシュトラッキングを行う。具体的には、基礎3DモデルM(T1)の頂点群P(T1)と、基礎3DモデルM(T2)の頂点群P(T2)があったとき、頂点群P(T1)の各頂点について、頂点群P(T2)の中から距離が最短となる頂点を対応付けることで行われる。なお、メッシュトラッキングは非特許文献1に示される方法などを用いてもよい。動きベクトルは、メッシュトラッキングによって関連付けられた基礎3Dモデルの頂点間の移動を表すベクトルである。動きベクトルは、頂点群P(T1)の各頂点の三次元位置座標から、メッシュトラッキングで対応付けられた頂点群P(T2)の対応頂点の三次元位置座標への変位量を各座標軸上で求めることで得られる。
In S502, the
S503において、内挿時刻決定部305は、各オブジェクトの基礎3Dモデルの部位ごとに、内挿を行う時刻である内挿時刻を算出する。内挿時刻を算出するために、まず隣り合う基礎時刻間のそれぞれにおいて内挿を行う内挿回数Nを決定する。この内挿回数Nは、モデル解析部304で求めた動きベクトルと、隣り合う基礎時刻間の時間間隔と、本システムの構築者が定める許容速度Vaと、最小時間分解能Tminとから決定される。図6に示す例において隣り合う基礎時刻間の時間間隔は、基礎3DモデルM(T1)、M(T2)の基礎時刻T1、T2との間の時間間隔である。
In S503, the interpolation
本実施形態では、ある部位に属する全ての頂点についての動きベクトルの平均を、その部位を代表する代表動きベクトルとして使用する。代表動きベクトルの1秒あたりの大きさ、すなわち部位を代表する移動速度を代表速度Vとすると、隣り合う基礎時刻間の内挿回数Nは下式(1)にて求められる。
N=min(Rounddown(V/Va),(T2−T1)/Tmin) 式(1)
In the present embodiment, the average of the motion vectors for all the vertices belonging to a certain part is used as the representative motion vector representing the part. Assuming that the magnitude of the representative motion vector per second, that is, the moving speed representing the part is the representative speed V, the number of interpolations N between adjacent basic times can be obtained by the following equation (1).
N = min (Rounddown (V / Va), (T2-T1) / Tmin) Equation (1)
ここで、Rounddownは小数点以下を切り捨てた整数を求める関数を表す。式(1)により、代表速度Vが許容速度Va以上の場合に内挿が行われ、かつ内挿間隔の最小値は最小時間分解能Tminに抑えられる。なお、内挿回数Nは、隣り合う基礎時刻間ごと及び分割された部位ごとに求まり、動きの大きい区間ほど内挿回数Nは大きくなり、かつ、動きの大きい部位ほど内挿回数Nは大きくなる。 Here, Rounddown represents a function for finding an integer with the decimal point truncated. According to the equation (1), interpolation is performed when the representative velocity V is equal to or higher than the permissible velocity Va, and the minimum value of the interpolation interval is suppressed to the minimum time resolution Tmin. The number of interpolations N is obtained for each adjacent basic time and for each divided portion. The number of interpolations N increases as the movement is larger, and the number of interpolations N increases as the movement increases. ..
許容速度Vaと最小時間分解能Tminは、情報処理装置103の処理能力や基礎3Dモデルの複雑さ、ユーザの要求として想定される時間分解能などを考慮して決定する。これにより、基礎時刻間ごとに設定可能な内挿時刻の最大個数も決まることになる。式(1)に基づき決定した内挿回数Nが0でない場合(V≧Va)、基礎時刻T1、T2と内挿回数Nとを用いて、内挿時刻T1−i(i=1,...,N)が設定される。隣り合う基礎時刻間ごとに設定される内挿時刻の個数はNとなる。なお、内挿回数が0の場合(V<Va)は、内挿を行わないため内挿時刻T1−iは設定されない。なお、内挿時刻は、原モデル時刻と同じコンテンツ時間における時刻を表す。また、基礎時刻及び内挿時刻を合わせて、単にモデル時刻と呼ぶこととする。
The permissible speed Va and the minimum time resolution Tmin are determined in consideration of the processing capacity of the
本実施形態では、線形補間を使用した内挿を行うこととし、内挿時刻T1−iは、基礎時刻T1、T2の間で等間隔にとり、基礎時刻に基礎時刻間の時間間隔を内挿回数で割った値を付加することで、下式(2)のように算出される。
T1−i=T1+(T2−T1)/(N+1)×i 式(2)
In the present embodiment, interpolation is performed using linear interpolation, the interpolation time T1-i is set at equal intervals between the basic times T1 and T2, and the time interval between the basic times is the number of interpolations at the basic time. By adding the value divided by, it is calculated as in the following equation (2).
T1-i = T1 + (T2-T1) / (N + 1) × i equation (2)
ここで図14に、S503の内挿時間算出処理のフローチャートを示す。S1401において、内挿時刻決定部305は、未選択の部位を1つ選択する。次にS1402において、内挿時刻決定部305は、動きベクトルと、隣り合う基礎時刻間の時間間隔と、許容速度Vaと、最小時間分解能Tminとから式(1)に基づき内挿回数Nを算出する。S1403において、内挿時刻決定部305は、内挿回数Nが0であるか否かを判定し、内挿回数Nが0でない場合はS1404に移行し、内挿回数Nが0の場合はS1405に移行する。内挿回数Nが0でなくS1404に移行した場合は、内挿時刻決定部305は、式(2)に基づき内挿時間を算出する。S1405において、内挿時刻決定部305は、全ての部位が選択されたか否かを判定し、未選択の部位がある場合はS1401に戻り、全ての部位を選択している場合は処理を終了する。
Here, FIG. 14 shows a flowchart of the interpolation time calculation process of S503. In S1401, the interpolation
内挿時刻が設定されるか否かにより上述するように内挿を行うか否かが決まる。そのた、内挿を行うか否かは、内挿回数Nが0であるか否かにより決まる。この内挿回数Nが0であるか否かは基礎3Dモデルの移動速度が所定の速度以上(V≧Va)か所定の速度未満(V<Va)かにより決まるため、内挿を行うか否かは、基礎3Dモデルの移動速度により決まることとなる。 Whether or not to perform interpolation is determined as described above depending on whether or not the interpolation time is set. In addition, whether or not to perform interpolation depends on whether or not the number of interpolations N is 0. Whether or not the number of interpolations N is 0 depends on whether the moving speed of the basic 3D model is equal to or higher than a predetermined speed (V ≧ Va) or lower than a predetermined speed (V <Va). Whether or not it will be determined by the moving speed of the basic 3D model.
S504において、モデル内挿部306は、S503で内挿時刻が設定された部位については内挿3Dモデルを生成し、分割部位情報、モデル接合情報、及び補間モデル時刻を示すタイムコードと合わせてモデル記憶部303に格納する。なお、S503で内挿時刻が設定されなかった部位については内挿3Dモデルを生成しない。
In S504, the
図7は、図6に示す基礎3DモデルM(T1)、M(T2)に関してN=1である場合に生成される内挿3DモデルM(T1−1)を示す図である。図6に示す基礎3DモデルM(T1)、M(T2)について内挿回数Nの算出を行った結果、左足16とサッカーボール17のみ代表速度Vが許容速度Va以上であった。そのため図7(b)に示すように、内挿時刻が設定されたのは左足16’’とサッカーボール17’’のみとなった。この場合、内挿3DモデルM(T1−1)の頭部11、右腕12、左腕13、胴体14、右足15については、M(T1)又はM(T2)のものをそのまま使用する。このように、動きの大きい部位やオブジェクトのみ内挿3Dモデルを生成することにより、内挿後の3Dモデルのデータ量を抑制することができる。
FIG. 7 is a diagram showing an interpolated 3D model M (T1-1) generated when N = 1 with respect to the basic 3D models M (T1) and M (T2) shown in FIG. As a result of calculating the number of interpolations N for the basic 3D models M (T1) and M (T2) shown in FIG. 6, the representative speed V of only the
なお、本実施形態においては、内挿3Dモデルは、S502にて各頂点について算出された動きベクトルを用いて、頂点座標の線形補間を行うことで生成されるものとする。そのため、本実施形態では2つの原モデル時刻T1、T2の基礎3Dモデル間の内挿3Dモデルを生成するため線形補間を使用する。但し、本開示の技術はこの実施形態に限定されず、内挿3Dモデルを生成するために、参照する基礎3Dモデルの数を3つ以上に増やし、二次補間などの非線形な頂点座標の補間手法を用いてもよい。 In the present embodiment, the interpolated 3D model is generated by performing linear interpolation of the vertex coordinates using the motion vector calculated for each vertex in S502. Therefore, in this embodiment, linear interpolation is used to generate an interpolated 3D model between the basic 3D models of the two original model times T1 and T2. However, the technique of the present disclosure is not limited to this embodiment, and in order to generate an interpolated 3D model, the number of reference basic 3D models is increased to 3 or more, and non-linear vertex coordinate interpolation such as quadratic interpolation is performed. The method may be used.
図8は、本実施形態の配信用仮想視点画像データ生成処理のフローチャートである。本フローは、ユーザから入出力部309を介して取得した、特定の仮想視点画像データを特定のフレームレートfで再生する要求が行われたタイミングで実行される。フレームレートfは、ユーザがユーザ端末106、107を介して指定してもよいし、ユーザ端末106、107の処理能力や情報処理装置103との接続状況に応じて決定されるようにしてもよい。
FIG. 8 is a flowchart of the virtual viewpoint image data generation process for distribution of the present embodiment. This flow is executed at the timing when a request is made to reproduce the specific virtual viewpoint image data acquired from the user via the input /
S801において、モデル取得部307は、本処理で生成する配信用仮想視点画像データの再生区間の時刻(再生開始時刻及び再生終了時刻)を表すタイムコード及び配信用仮想視点画像データのフレームレートfを取得する。S801で取得する再生区間のタイムコードは、再生時刻のみとし、ユーザからの再生終了の要求が行われたタイミングとしてもよいし、再生終了時刻は配信用仮想視点画像データのデータ終了のタイミングとしてもよい。フレームレートfは、ユーザによる入力装置105などを介した入力に基づき決定されてもよいし、ユーザ端末106、107の処理能力から自動で決定してもよい。ユーザ端末106、107において自動で決定されるフレームレートfとしては、例えばユーザ端末106、107の最大フレームレートとしてもよし、通信回線の状況に応じて再生が途切れないフレームレートとしてもよい。
In S801, the
S802において、モデル取得部307は、指定された再生開始時刻に最も近いモデル時刻Tを取得し、取得したモデル時刻Tを基準に、指定されたフレームレートfに応じた時間間隔で各フレーム画像データのフレーム時刻Tfを決定する。
In S802, the
S803において、モデル取得部307は、モデル記憶部303に予め格納された基礎3Dモデル及び内挿3Dモデルを含む3Dモデルから、S801で取得されたフレーム時刻Tfに近接する、望ましくは最も近いモデル時刻Tの3Dモデルを取得する。また、取得した3Dモデルが内挿3Dモデルの場合、分割部位情報及びモデル接合情報も併せて取得する。さらに、モデル接合情報に含まれる部位のうち、内挿3Dモデルが存在しない部位については、その内挿3Dモデルのモデル時刻Tに最も近いモデル時刻Tの基礎3Dモデルの対応する部位を取得する。
In S803, the
図9は、実施形態における任意のフレームレートfに応じた3Dモデルの取得方法を説明する図である。ここでは、60fpsの複数視点画像データから生成された基礎3Dモデルに対してN=3で内挿した3Dモデルを用いて、40fps、100fpsの仮想視点画像データを生成する場合について説明する。 FIG. 9 is a diagram illustrating a method of acquiring a 3D model according to an arbitrary frame rate f in the embodiment. Here, a case where virtual viewpoint image data of 40 fps and 100 fps is generated by using a 3D model interpolated at N = 3 with respect to a basic 3D model generated from a plurality of viewpoint image data of 60 fps will be described.
40fpsの仮想視点画像データを生成する場合には、フレーム時刻Tf1用の3Dモデルに基礎3DモデルM(T1)を使用し、フレーム時刻Tf2用の3Dモデルにフレーム時刻Tf2と一致するモデル時刻の内挿3DモデルM(T2−2)を使用する。このように、フレーム時刻Tfと一致するモデル時刻Tが存在する場合、フレーム時刻Tfのフレーム画像データの生成には、フレーム時刻Tfと一致するモデル時刻Tの3Dモデルを使用する。 When generating 40 fps virtual viewpoint image data, the basic 3D model M (T1) is used as the 3D model for the frame time Tf1, and the 3D model for the frame time Tf2 is within the model time that matches the frame time Tf2. Insert 3D model M (T2-2) is used. As described above, when the model time T that matches the frame time Tf exists, the 3D model of the model time T that matches the frame time Tf is used to generate the frame image data of the frame time Tf.
一方、100fpsの仮想視点画像データを生成する場合には、フレーム時刻Tf1用の3Dモデルに基礎3DモデルM(T1)を使用するが、フレーム時刻Tf2と一致するモデル時刻が存在しない。そのため、フレーム時刻Tf2用の3Dモデルには、フレーム時刻Tf2に最も近いモデル時刻T1−2の内挿3DモデルM(T1−2)を使用する。同様にフレーム時刻Tf3用の3Dモデルには、フレーム時刻Tf3に最も近いモデル時刻T2−1の内挿3DモデルM(T2−1)を使用する。フレーム時刻Tf4用の3Dモデルには、フレーム時刻Tf4に最も近いモデル時刻T2−3の内挿3DモデルM(T2−3)を使用する。 On the other hand, when generating virtual viewpoint image data of 100 fps, the basic 3D model M (T1) is used as the 3D model for the frame time Tf1, but there is no model time that matches the frame time Tf2. Therefore, as the 3D model for the frame time Tf2, the interpolated 3D model M (T1-2) at the model time T1-2 closest to the frame time Tf2 is used. Similarly, as the 3D model for the frame time Tf3, the interpolated 3D model M (T2-1) of the model time T2-1 closest to the frame time Tf3 is used. As the 3D model for the frame time Tf4, the interpolated 3D model M (T2-3) of the model time T2-3 closest to the frame time Tf4 is used.
このように、フレーム時刻Tfに一致するモデル時刻Tが存在しない場合は、フレーム時刻Tfに最も近いモデル時刻Tの3Dモデルを使用する。これにより任意のフレームレートfの仮想視点画像データを生成することができる。なお、フレーム時刻Tfに一致するモデル時刻Tの3Dモデルを使用するか、フレーム時刻Tfよりも時間間隔の狭いモデル時刻Tの3Dモデルを使用する方が高品質な仮想視点画像データとなり好ましい。 As described above, when there is no model time T that matches the frame time Tf, the 3D model of the model time T closest to the frame time Tf is used. As a result, virtual viewpoint image data having an arbitrary frame rate f can be generated. It is preferable to use a 3D model of the model time T that matches the frame time Tf, or to use a 3D model of the model time T whose time interval is narrower than that of the frame time Tf because of high quality virtual viewpoint image data.
図10は、実施形態における所定のフレームレートfに応じた3Dモデルの取得方法を説明する図である。仮想視点画像データの選択可能なフレームレートfが予め決められている場合は、内挿回数Nを適切に設定することで、無駄に多くの3Dモデルを保持せずに高品質な仮想視点画像データを生成可能にすることができる。図10に示すように、選択可能なフレームレートfが120fps、180fpsである場合、内挿回数N=5とすることにより、全てのフレーム時刻Tfに一致するモデル時刻Tの3Dモデルが存在することになる。これにより高品質な仮想視点画像データを生成可能で、かつ、内挿回数N≧6としたときよりも保持する3Dモデルを少なくすることができる。 FIG. 10 is a diagram illustrating a method of acquiring a 3D model according to a predetermined frame rate f in the embodiment. When the selectable frame rate f of the virtual viewpoint image data is predetermined, by setting the number of interpolation times N appropriately, high quality virtual viewpoint image data can be obtained without holding a lot of 3D models unnecessarily. Can be generated. As shown in FIG. 10, when the selectable frame rates f are 120 fps and 180 fps, there is a 3D model of the model time T that matches all the frame times Tf by setting the number of interpolations N = 5. become. As a result, high-quality virtual viewpoint image data can be generated, and the number of 3D models to be retained can be reduced as compared with the case where the number of interpolations N ≧ 6.
また、図示していないが、動きが小さく、内挿回数Nが小さいためにモデル時刻Tの方がフレーム時刻Tfよりも時間間隔が広くなる場合は、複数のフレーム時刻Tfにおいて同一のモデル時刻Tの3Dモデルを使用する。このように、オブジェクトの変化量が小さく、内挿することによる効果が小さい部分では、内挿3Dモデルを生成せずに3Dモデルのデータ量を低減することができる。 Further, although not shown, when the model time T has a wider time interval than the frame time Tf because the movement is small and the number of interpolations N is small, the same model time T at a plurality of frame times Tf. Use the 3D model of. As described above, in the portion where the amount of change of the object is small and the effect of interpolation is small, the amount of data of the 3D model can be reduced without generating the interpolated 3D model.
S804において、モデル取得部307は、S803で取得した部位ごとの内挿3Dモデルを、分割部位情報及びモデル接合情報に基づき、分割前のオブジェクト単位の3Dモデルとなるよう合成した合成3Dモデルを生成する。なお、内挿3Dモデルが存在しない部位については、合成する内挿3Dモデルの内挿時刻に近い時刻の基礎3Dモデルの対応する部位を使用する。このとき隣り合う基礎時刻間における合成後のオブジェクト単位の内挿3Dモデルの数は、部位ごとの内挿回数Nの最大数となる。
In S804, the
ここで本実施形態では、モデル接合情報を参照することで部位ごとの接合部が離れないように合成することができる。例えば、分割前の基礎3Dモデルでは同一の頂点であったものが、分割後に部位ごと異なる位置に移動した場合、それら分割前に同一の頂点であった全ての頂点をそれらの中点位置に集めて結合する。詳細については後述する。 Here, in the present embodiment, by referring to the model joint information, it is possible to synthesize the joints of each part so that the joints do not separate. For example, if the same vertices in the basic 3D model before division move to different positions for each part after division, all the vertices that were the same vertices before division are collected at their midpoint positions. And combine. Details will be described later.
S805において、モデル取得部307は、S804で合成された合成3Dモデルと基礎3Dモデルを含む、再生区間内の3Dモデルを取得する。そして仮想視点画像データ生成部308が、ユーザがユーザ端末106、107において入力した仮想視点情報を取得してレンダリングし、仮想視点からの見えを表す配信用仮想視点画像データを生成する。仮想視点情報は、典型的には、ユーザ端末106、107側で予め決められた既定の再生フレームレートfdで取得される。例えば、既定の再生フレームレートfdが60fpsのユーザ端末では、1/60秒に1回、仮想視点情報を取得することとなる。
In S805, the
既定の再生フレームレートfdとユーザが指定したフレームレートfとが一致している場合は、仮想視点情報を変更したフレーム時刻Tfに一致するモデル時刻Tの3Dモデルを使用して、変更後の仮想視点からの見えを表す仮想視点画像データを生成する。一方、この既定の再生フレームレートfdと、ユーザが指定した配信用仮想視点画像データのフレームレートfとが一致しない場合もある。そのような場合には、ユーザ端末が仮想視点情報を取得したタイミングに最も近いモデル時刻Tの3Dモデルを使用して、変更後の仮想視点からの見えを表す仮想視点画像データを生成する。 If the default playback frame rate fd and the frame rate f specified by the user match, the changed virtual is used by using the 3D model of the model time T that matches the changed frame time Tf of the virtual viewpoint information. Generate virtual viewpoint image data that represents the view from the viewpoint. On the other hand, the default playback frame rate fd may not match the frame rate f of the virtual viewpoint image data for distribution specified by the user. In such a case, the 3D model of the model time T closest to the timing when the user terminal acquires the virtual viewpoint information is used to generate virtual viewpoint image data representing the appearance from the changed virtual viewpoint.
S806において、モデル取得部307は、S805で生成した仮想視点画像データを入出力部309からネットワーク108を介してユーザ端末106、107に配信する。
In S806, the
なお、仮想視点画像データの配信中にフレームレートfの変更の要求が行われた場合は、フレームレート変更の要求があったタイミングを再生開始時刻とし、S801〜S806の処理を行ってもよい。 If a request for changing the frame rate f is made during distribution of the virtual viewpoint image data, the playback start time may be set as the timing at which the request for changing the frame rate is made, and the processes S801 to S806 may be performed.
ここで、S804における3Dモデルの合成処理について説明する。図11は、図7(b)に示す内挿3Dモデルを示す図であり、基礎3Dモデルでは同一の頂点であった胴体14の頂点B1と、左足16’’の頂点L1とがマージされる前の状態の図である。また図12は、図11の頂点B1と頂点L1とをそれらの中点I1でマージした後の状態の図である。図11では、頂点B1と頂点L1とを中点I1まで移動させるように、胴体14と左足16’’とを胴体14’’と左足16’’’とにそれぞれ変形させている。
Here, the 3D model synthesis process in S804 will be described. FIG. 11 is a diagram showing the interpolated 3D model shown in FIG. 7B, in which the apex B1 of the
3Dモデルの合成処理についてさらに図13を用いて詳細に説明する。図13は、分割された部位ごとのモデルの合成方法の詳細を説明する図であり、便宜的に簡略化した2Dモデルを用いて説明する。 The 3D model synthesis process will be further described in detail with reference to FIG. FIG. 13 is a diagram for explaining the details of the method of synthesizing the model for each of the divided parts, and will be described using a simplified 2D model for convenience.
図13(a)は、基礎3Dモデルの頂点v1、v2、v3からなる左腕と、頂点v2、v3、v4、v5からなる胴体を示している。ここでは左腕と胴体とで共有する頂点はv2とv3であるが、この場合、図4のS403において、頂点インデックスv2、v3が胴体及び左腕のモデル接合情報として格納される。図13の例では接合頂点は2つであるが、S403では、異なる部位との間で共有する全ての頂点を検出し、それら頂点インデックスの全てをモデル接合情報として格納する。 FIG. 13A shows the left arm consisting of vertices v1, v2, v3 of the basic 3D model and the torso consisting of vertices v2, v3, v4, v5. Here, the vertices shared by the left arm and the body are v2 and v3. In this case, in S403 of FIG. 4, the vertex indexes v2 and v3 are stored as model joining information of the body and the left arm. In the example of FIG. 13, there are two joining vertices, but in S403, all the vertices shared with different parts are detected, and all of the vertex indexes are stored as model joining information.
図13(b)は、部位ごとに内挿された左腕と胴体とを示しており、左腕と胴体とで共有していた頂点v2、v3が左腕は頂点v2’、v3’に、胴体は頂点v2’’、v3’’にそれぞれ移動し、内挿後に左腕と胴体が離れた状態を示している。 FIG. 13B shows the left arm and the torso interpolated for each part, and the vertices v2 and v3 shared by the left arm and the torso are the vertices v2'and v3' for the left arm and the torso is the apex. It moves to v2'' and v3'', respectively, and shows a state in which the left arm and the torso are separated after interpolation.
図13(c)は、内挿された左腕と胴体とを合成した状態を示している。図13(b)に示すようにモデル接合情報に格納された頂点v2、v3の座標が左腕と胴体とで異なる場合、頂点v2’、v2’’をそれらの中点v2’’’に移動させ、頂点v3’、v3’’をそれらの中点v3’’’に移動させる。この頂点v2’、v2’’、v3’、v3’’の移動により、内挿された左腕及び胴体はそれぞれ変形することで接合されて合成される。 FIG. 13 (c) shows a state in which the interpolated left arm and the torso are combined. When the coordinates of the vertices v2 and v3 stored in the model joining information are different between the left arm and the torso as shown in FIG. 13 (b), the vertices v2'and v2'' are moved to their midpoint v2'''. , Move the vertices v3', v3'' to their midpoint v3'''. By the movement of the vertices v2 ′, v2 ″, v3 ′, and v3 ″, the interpolated left arm and the torso are deformed and joined to be synthesized.
このようにしてモデル接合情報を参照することで、分離してしまった部位間を分割時の接合部同士を接合して合成することができる。 By referring to the model joint information in this way, it is possible to combine the separated parts by joining the joints at the time of division.
以上が、任意のフレームレートfの仮想視点画像データを、記憶領域や処理コストの面で効率的に提供する画像処理装置の構成例である。これにより、保持する3Dモデルのデータ量を必要最小限のデータ量に抑えつつ、ユーザからの再生要求から短時間で仮想視点画像データの配信を行うことができる。 The above is a configuration example of an image processing device that efficiently provides virtual viewpoint image data having an arbitrary frame rate f in terms of storage area and processing cost. As a result, it is possible to deliver the virtual viewpoint image data in a short time from the reproduction request from the user while suppressing the amount of data of the 3D model to be held to the minimum necessary amount.
また、図8では、内挿3Dモデルを合成するステップであるS804が、S801〜S803の後に行われる構成としているが、S801よりも前にS804を実施する構成としてもよい。すなわち、図5の補間モデル生成処理において内挿3Dモデルが生成された後、生成された内挿3Dモデルの全てについて内挿3Dモデルを合成する処理を行ってもよい。予め内挿3Dモデルの合成を行うことでユーザによる要求から再生までの遅延をより短縮することができる。 Further, in FIG. 8, S804, which is a step of synthesizing the interpolated 3D model, is configured to be performed after S801 to S803, but S804 may be performed before S801. That is, after the interpolation 3D model is generated in the interpolation model generation process of FIG. 5, a process of synthesizing the interpolation 3D model for all of the generated interpolation 3D models may be performed. By synthesizing the interpolated 3D model in advance, the delay from the request by the user to the reproduction can be further shortened.
また、本実施形態では、複数視点画像撮像部301、基礎モデル生成部302、仮想視点画像データ生成部308、及び入出力部309を含む構成としているが、これらは同様の機能を有する外部装置で代替することもできる。すなわち、情報処理装置103は、図4、5、8に示す処理のうち、S402、S501、S805、及びS806については実施しない構成とすることもできる。
Further, in the present embodiment, the configuration includes the multi-viewpoint
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
305 内挿時刻決定部
306 モデル内挿部
307 モデル取得部
305 Interpolation
Claims (17)
2つの連続するタイムコードと対応付けられた2つの第1の3Dモデルと、当該2つの第1の3Dモデルの移動速度とに基づき、当該2つの連続するタイムコードが示すタイムの間のタイムに対応する第2の3Dモデルを生成する生成手段と、
を備えることを特徴とする画像処理装置。 An acquisition means for acquiring a first 3D model associated with a time code representing a three-dimensional shape of an object,
Based on the movement speeds of the two first 3D models associated with the two consecutive timecodes and the two first 3D models, the time between the times indicated by the two consecutive timecodes A generation means for generating the corresponding second 3D model, and
An image processing device comprising.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the generation means generates the second 3D model based on the movement speed being equal to or higher than a predetermined speed.
ことを特徴とする請求項1に記載の画像処理装置。 The image according to claim 1, wherein the generation means does not generate the second 3D model based on the two first 3D models when the moving speed is less than a predetermined speed. Processing equipment.
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The generation means determines the number of the second 3D models to be generated for each of the two consecutive time codes corresponding to the first 3D model according to the movement speed of the movement speed. The image processing apparatus according to any one of claims 1 to 5, wherein the image processing apparatus is characterized.
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The acquisition means divides the first 3D model corresponding to a predetermined object into a plurality of parts, and makes the plurality of parts individual objects, and joins the plurality of parts. The image processing apparatus according to any one of claims 1 to 6, wherein the joining information for designating a part is acquired.
をさらに備えたことを特徴とする請求項7又は8に記載の画像処理装置。 Further provided with a synthesis means for generating a third 3D model by synthesizing the second 3D model for each of the divided parts based on the joining information so as to be a 3D model for each object before division. The image processing apparatus according to claim 7 or 8.
ことを特徴とする請求項9に記載の画像処理装置。 When the second 3D model is generated only for a part of the 3D model of the object unit before the division, the synthesis means corresponds to a time code close to the time code of the second 3D model. The image processing apparatus according to claim 9, wherein a portion of the attached first 3D model that is not in the second 3D model is synthesized with the second 3D model.
をさらに備えたことを特徴とする請求項9又は10に記載の画像処理装置。 Further provided is a selection means for selecting a 3D model corresponding to the frame image data of the virtual viewpoint image data from the first 3D model and the third 3D model based on the specified playback section, virtual viewpoint and frame rate. The image processing apparatus according to claim 9 or 10.
ことを特徴とする請求項11に記載の画像処理装置。 The selection means includes the first 3D model or the third 3D model associated with the time code that matches the playback time determined based on the designated playback section, virtual viewpoint, and frame rate. If not, the first 3D model or the third 3D model associated with the time code closest to the playback time is selected as the 3D model corresponding to the frame image data of the virtual viewpoint image data. 11. The image processing apparatus according to claim 11.
をさらに備えたことを特徴とする請求項11又は12に記載の画像処理装置。 The image processing apparatus according to claim 11 or 12, further comprising a generation means for generating the virtual viewpoint image data based on a 3D model corresponding to the frame image data selected by the selection means.
ことを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。 Claims 1 to 14 characterized in that the first 3D model acquired by the acquisition means is a 3D model generated based on a plurality of image data obtained by synchronous imaging using a plurality of imaging devices. The image processing apparatus according to any one of the above items.
2つの連続するタイムコードと対応付けられた2つの第1の3Dモデルと、当該2つの第1の3Dモデルの移動速度とに基づき、当該2つの連続するタイムコードが示すタイムの間のタイムに対応する第2の3Dモデルを生成するステップと、
を有することを特徴とする画像処理方法。 The step of acquiring the first 3D model associated with the time code, which represents the 3D shape of the object,
Based on the movement speeds of the two first 3D models associated with the two consecutive timecodes and the two first 3D models, the time between the times indicated by the two consecutive timecodes Steps to generate the corresponding second 3D model,
An image processing method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019148819A JP2021033347A (en) | 2019-08-14 | 2019-08-14 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019148819A JP2021033347A (en) | 2019-08-14 | 2019-08-14 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021033347A true JP2021033347A (en) | 2021-03-01 |
Family
ID=74676601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019148819A Pending JP2021033347A (en) | 2019-08-14 | 2019-08-14 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021033347A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023017627A1 (en) * | 2021-08-10 | 2023-02-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
-
2019
- 2019-08-14 JP JP2019148819A patent/JP2021033347A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023017627A1 (en) * | 2021-08-10 | 2023-02-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10582191B1 (en) | Dynamic angle viewing system | |
US11750786B2 (en) | Providing apparatus, providing method and computer readable storage medium for performing processing relating to a virtual viewpoint image | |
US11189057B2 (en) | Provision of virtual reality content | |
JP6572368B2 (en) | Generating apparatus, generating method, and program | |
JP2024019537A (en) | Image processing apparatus, image processing method, and program | |
JP2021033347A (en) | Image processing device, image processing method, and program | |
US11328488B2 (en) | Content generation system and method | |
JP7277184B2 (en) | Information processing device, information processing method and program. | |
JP7168969B2 (en) | Heat map presentation device and heat map presentation program | |
JP7354186B2 (en) | Display control device, display control method, and display control program | |
EP3742404A1 (en) | Content coding system and method | |
JP2022119067A (en) | Image processing device and method, image processing system and program | |
KR20180108967A (en) | Multi-vision screen image rendering system, device and method | |
JP2020095465A (en) | Image processing device, image processing method, and program | |
JP2020086793A (en) | Data correction device and program | |
JP7204843B2 (en) | Transmission device, transmission method, and program | |
JP2022019341A (en) | Information processing apparatus, information processing method, and program | |
EP4350626A1 (en) | Image processing system, method for controlling the same, and program | |
JP2024098822A (en) | Image processing device, image processing method, and program | |
JP2021179687A (en) | Information processing apparatus, information processing method, and program | |
JP2023000948A (en) | Device, method, and program for display control | |
JP2020010347A (en) | Generation device, generation method, and program | |
CN113316804A (en) | Image processing apparatus, image processing method, and program |