JP2021018570A - Image processing apparatus, image processing system, image processing method and program - Google Patents
Image processing apparatus, image processing system, image processing method and program Download PDFInfo
- Publication number
- JP2021018570A JP2021018570A JP2019133559A JP2019133559A JP2021018570A JP 2021018570 A JP2021018570 A JP 2021018570A JP 2019133559 A JP2019133559 A JP 2019133559A JP 2019133559 A JP2019133559 A JP 2019133559A JP 2021018570 A JP2021018570 A JP 2021018570A
- Authority
- JP
- Japan
- Prior art keywords
- shape data
- dimensional
- image processing
- model
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示の技術は、仮想視点画像の生成に関し、特に複数視点画像からオブジェクトの形状データを生成する際のオクルージョン対策に関するものである。 The technique of the present disclosure relates to the generation of a virtual viewpoint image, and particularly to an occlusion measure when generating object shape data from a plurality of viewpoint images.
昨今、複数のカメラ(撮像装置)をそれぞれ異なる位置に設置して多視点で同期撮像し、該撮像により得られた複数視点画像を用いて、実在しない仮想的なカメラからの見えを表す仮想視点画像を生成する技術が注目されている。この仮想視点画像によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴閲覧することが出来るため、通常の撮像画像と比較してユーザに高臨場感を与えることができる。 In recent years, multiple cameras (imaging devices) are installed at different positions to perform synchronous imaging from multiple viewpoints, and the multi-viewpoint images obtained by the imaging are used to represent the view from a non-existent virtual camera. Attention is being paid to techniques for generating images. According to this virtual viewpoint image, for example, the highlight scenes of soccer and basketball can be viewed and viewed from various angles, so that the user can be given a high sense of presence as compared with a normal captured image.
仮想視点画像の生成においては、まず、複数のカメラで撮像された映像をサーバなどに集約し、該映像内のオブジェクト(被写体)の三次元モデルを生成する。そして、この三次元モデルに対して、指定された仮想視点に基づき色付けを行い、さらに射影変換などの二次元変換を行って、二次元の仮想視点画像が得られる。上記生成プロセスのうち三次元モデルへの色付けには、視点依存テクスチャマッピングの手法がよく用いられる(非特許文献1)。視点依存テクスチャマッピングでは、オブジェクト上の着目する点の色を決定する際、複数のカメラそれぞれの撮像画像上の対応点における色を重み付きでブレンドする。こうすることで、各視点に対応する撮像画像間の色の差異、三次元モデル形状、カメラパラメータの誤差などに起因する色変化の不連続性を抑制し、より自然なテクスチャ表現を実現している。 In the generation of the virtual viewpoint image, first, the images captured by a plurality of cameras are aggregated in a server or the like, and a three-dimensional model of an object (subject) in the image is generated. Then, the three-dimensional model is colored based on the designated virtual viewpoint, and further subjected to two-dimensional transformation such as projective transformation to obtain a two-dimensional virtual viewpoint image. Of the above generation processes, the viewpoint-dependent texture mapping method is often used for coloring the three-dimensional model (Non-Patent Document 1). In the viewpoint-dependent texture mapping, when determining the color of the point of interest on the object, the colors at the corresponding points on the captured images of the plurality of cameras are blended with weight. By doing so, the discontinuity of color change caused by the color difference between the captured images corresponding to each viewpoint, the three-dimensional model shape, the error of the camera parameter, etc. is suppressed, and a more natural texture expression is realized. There is.
上記視点依存テクスチャマッピングにおいては、特定の視点から見て手前にあるオブジェクトがその奥にあるオブジェクトの一部を隠してしまうオクルージョンによって、奥のオブジェクトの三次元モデルへの色付けが不正確になることがあった。この点、どのカメラの撮像画像においてオブジェクトに隠れが生じているかをその三次元モデルより判断し、判断結果に基づいて色付けを行う研究も行われている(非特許文献2)。 In the above viewpoint-dependent texture mapping, the object in the foreground when viewed from a specific viewpoint hides a part of the object in the back, and the coloring of the object in the back to the 3D model becomes inaccurate. was there. In this regard, research is also being conducted in which it is determined from the three-dimensional model which camera's captured image the object is hidden, and coloring is performed based on the determination result (Non-Patent Document 2).
非特許文献2に開示の技術では、複数視点画像から生成した三次元モデル自体を用いてオクルージョンの発生箇所を判別する。そのため、撮像空間における三次元モデルを生成するための三次元空間(モデル生成領域)の外に存在するオブジェクトに起因するオクルージョンについては判別できないという問題がある。この問題は、モデル生成領域を拡げることで対処可能であるが、モデル生成領域を拡げるとその分だけ三次元モデルの生成に要する演算量も膨大となってサーバ等の処理負荷が大幅に増大することになる。そのため、モデル生成領域の単純な拡大はシステムの処理効率の悪化に繋がる。 In the technique disclosed in Non-Patent Document 2, the location where occlusion occurs is determined by using the three-dimensional model itself generated from the multi-viewpoint image. Therefore, there is a problem that the occlusion caused by the object existing outside the three-dimensional space (model generation area) for generating the three-dimensional model in the imaging space cannot be discriminated. This problem can be dealt with by expanding the model generation area, but if the model generation area is expanded, the amount of calculation required to generate the 3D model will be enormous, and the processing load on the server etc. will increase significantly. It will be. Therefore, a simple expansion of the model generation area leads to deterioration of the processing efficiency of the system.
本開示の技術は、上記の課題に鑑みてなされたものであり、その目的は、処理負荷の増大を抑制しつつ、オブジェクトの形状データにおけるオクルージョンの発生箇所を判別することである。 The technique of the present disclosure has been made in view of the above problems, and an object thereof is to determine the occurrence location of occlusion in the shape data of an object while suppressing an increase in processing load.
本開示に係る画像処理装置は、複数の撮像装置で同期撮像して得られた複数視点画像の少なくとも一つに含まれるオブジェクトの三次元形状を表す形状データを、前記同期撮像の対象三次元空間のうち所定の三次元領域で生成する生成手段と、前記同期撮像の対象三次元空間のうち前記所定の三次元領域とは異なる三次元領域で生成された形状データを取得する取得手段と、前記取得手段で取得された形状データを用いて、前記生成手段で生成された形状データについて、前記撮像装置からの可視性判定を行う判定手段と、前記生成手段で生成された形状データを、前記可視性判定の結果と共に出力する出力手段と、を有し、前記判定手段は、前記生成手段で生成された形状データが、前記取得手段で取得された形状データによって遮られるかどうかを判定することを特徴とする。 The image processing apparatus according to the present disclosure captures shape data representing the three-dimensional shape of an object included in at least one of a plurality of viewpoint images obtained by synchronous imaging with a plurality of imaging devices in the target three-dimensional space of the synchronous imaging. A generation means generated in a predetermined three-dimensional region, an acquisition means for acquiring shape data generated in a three-dimensional region different from the predetermined three-dimensional region in the target three-dimensional space for synchronous imaging, and the above-mentioned Using the shape data acquired by the acquisition means, the determination means for determining the visibility of the shape data generated by the generation means from the imaging device and the shape data generated by the generation means are displayed as visible. It has an output means for outputting together with the result of the sex determination, and the determination means determines whether or not the shape data generated by the generation means is blocked by the shape data acquired by the acquisition means. It is a feature.
本開示の技術によれば、処理負荷の増大を抑制しつつ、オブジェクトの形状データにおけるオクルージョンの発生箇所を正確に判別することができる。 According to the technique of the present disclosure, it is possible to accurately determine the occurrence location of occlusion in the shape data of an object while suppressing an increase in processing load.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. The same configuration will be described with the same reference numerals.
[実施形態1]
本実施形態では、レンダリング用の三次元モデルを生成する三次元領域の隣接領域において可視性判定用の暫定的な三次元モデルを生成し、レンダリング用の三次元モデルについての可視性判定を行う態様を説明する。なお、本実施形態では動画の場合を例に説明を行うが、静止画についても同様に適用可能である。
[Embodiment 1]
In the present embodiment, a provisional three-dimensional model for visibility determination is generated in an area adjacent to the three-dimensional region for generating a three-dimensional model for rendering, and the visibility determination for the three-dimensional model for rendering is performed. Will be explained. In this embodiment, the case of moving images will be described as an example, but the same applies to still images.
<システム構成>
図1は、本実施形態に係る、仮想視点画像を生成する画像処理システムの構成を示すブロック図である。画像処理システム1は、複数のカメラ(撮像装置)10a−10pからなるカメラアレイ10、複数の前景抽出装置12a−12pからなる前景抽出装置群12、制御装置13、三次元モデル生成装置14、レンダリング装置15を有する。
<System configuration>
FIG. 1 is a block diagram showing a configuration of an image processing system for generating a virtual viewpoint image according to the present embodiment. The
カメラアレイ10は、複数のカメラ10a−10pで構成され、様々な角度からオブジェクト(被写体)を同期撮像(撮影)する。各カメラで撮像された画像のデータ(そのまとまりが複数視点画像データ)は、前景抽出装置群12へ送られる。本実施形態では、カメラアレイ10を構成する各カメラ10a−10pは、図2に示すようにスタジアム内のフィールドを囲むように配置される。そして、各カメラ10a−10pは、フィールド上の点T0を注視点として、時刻を同期させて撮像を行う。
The
前景抽出装置群12を構成する各前景抽出装置12a−12pは、各カメラ10a−10pとそれぞれ対応付けられており、自身に対応付いているカメラの撮像画像から前景となるオブジェクトの部分を抽出して、マスク画像とテクスチャ画像を生成する。ここで、前景とは、撮像空間内の任意の視点から見ることのできる動的オブジェクトを指し、本実施例ではフィールド上に存在する人物やボールがその代表例となる。そして、フィールド上のゴールや観客席といった前景以外の静的オブジェクトは背景となる。また、マスク画像とは、撮像画像のうち前景部分を白で、背景部分を黒で表した2値のシルエット画像である。テクスチャ画像とは、前景を内包する矩形(外接矩形)部分を撮像画像から切り出して得られる多値の画像である。撮像画像から前景を抽出する手法としては、例えば背景差分法がある。背景差分法は、例えば試合開始前など前景となる動的オブジェクトがいない状態で撮像を行って得られた背景画像を保持しておき、当該背景画像と動的オブジェクトがいる状態での撮像画像との差分を検出し、差分が一定以上の部分を抽出する手法である。なお、前景の抽出にはフレーム間差分法など他の手法を用いてもよい。生成したマスク画像とテクスチャ画像のデータは、三次元モデル生成装置14に送られる。
Each
制御装置13は、各カメラ10a−10pのカメラパラメータを取得したり、不図示のUI(ユーザインタフェース)を介して仮想視点情報を受け付けたりする。カメラパラメータには、外部パラメータと内部パラメータとがある。外部パラメータは、回転行列と並進行列で構成されており、カメラの位置や姿勢を示す。内部パラメータは、カメラの焦点距離、光学的中心などを含み、カメラの画角や撮像センサの大きさなどを示す。カメラパラメータを取得するための作業はキャリブレーションと呼ばれる。キャリブレーションでは、まず、チェッカーボードのような特定パターンを撮像した複数枚の画像を用意する。そして、これらの画像から、三次元の世界座標系の点とそれに対応する二次元上の点との対応関係を算出することで、カメラパラメータが求められる。キャリブレーションによって得られたカメラパラメータは、三次元モデル生成装置14とレンダリング装置15に送られる。仮想視点情報には、同期撮像の対象三次元空間上に設定された仮想視点(仮想カメラ)の位置・姿勢、注視点、移動経路などが含まれ、例えば専用のジョイスティック等を用いてユーザが指定したり或いは撮影シーンに応じて自動で設定したりする。ユーザ入力等に基づき設定された仮想視点情報は、レンダリング装置15に送られる。
The
三次元モデル生成装置14は、入力されたマスク画像とカメラパラメータとに基づき、レンダリング装置15での色付けの対象となる動的オブジェクトの三次元モデル(三次元形状を表す形状データ)を生成する。本実施形態では、三次元モデルのデータ形式として、ボクセル形式を例に説明を行うものとする。ボクセル形式では、オブジェクトの三次元形状を、“ボクセル”と呼ばれる図3(a)で示すような微小な立方体を用いて表現する。図3(b)は、三次元モデルを生成する対象三次元空間を表したボクセル集合である。そして、図3(c)は、図3(b)に示すボクセル集合から視体積交差法により対象三次元空間内の非前景部分のボクセルを削ることで得られた、ボクセルを構成要素とする四角錐の三次元モデルである。なお、三次元モデルのデータ形式は、形状を表現する構成要素として点群を用いた点群形式や、ポリゴンを用いたポリゴンメッシュ形式など他の形式でもよい。三次元モデル生成装置14は、レンダリング処理の対象となる三次元モデルそれぞれについて、各カメラからどのように見えているかを判定する処理(可視性判定処理)を行う。なお、以下の説明では、レンダリング処理の対象となる三次元モデルを、単に「レンダリング用モデル」と表記する。図4は、可視性判定処理の概念を説明する図である。図4において、破線401はカメラc1(カメラアレイ10の中の任意の1台のカメラ)の画角を示し、一点鎖線402及び403はカメラc1からの視線を表現している。いま、一点鎖線402は、モデルm2に遮られることなく、モデルm1を構成するボクセルv1に届いている。これは、カメラc1からボクセルv1が見えていることを意味している。この場合、ボクセルv1はカメラc1の撮像画像に写る、つまり、可視という判定結果になる。一方、一点鎖線403は、モデルm2までしか届いていない。二点鎖線404は、一点鎖線403で示す視線がモデルm2によって遮られていなければ届いていたはずの視線を示している。いま、二点鎖線404は、モデルm1を構成するボクセルv2に届いており、これはモデルm2が存在しなければカメラc1からボクセルv2が見えていたことを意味している。この場合、ボクセルv2はカメラc1の撮像画像には写らないので、不可視という判定結果になる。このような判定を、生成されたレンダリング用モデルを構成する各ボクセルについて行う。このような可視性判定処理によって、レンダリング用モデルを構成する各ボクセルについて、各カメラ10a−10pの画角内で他のオブジェクトによって遮られることなく撮像画像に写っているかどうか(オクルージョンの発生の有無)を示す情報が得られることになる。生成したレンダリング用モデル及び可視性判定処理の結果は、テクスチャ画像のデータと共に、レンダリング装置15に送られる。
The three-dimensional
レンダリング装置15は、三次元モデル生成装置14から受信したレンダリング用モデルに対し色付け処理を行って、制御装置13から受信した仮想視点情報に従った仮想視点画像を生成する。具体的には、まず、レンダリング用モデルを構成するボクセルの中から注目するボクセルを決定する。そして、注目するボクセルについての可視性判定結果が“可視”のカメラを特定し、そのテクスチャ画像群における座標の対応関係をカメラパラメータより求め、当該対応関係にある座標の画素値をブレンドした値を、当該注目するボクセルに付与する処理を行う。画素値のブレンドにおいては、“可視”と判定されたカメラのテクスチャ画像だけを用い、その中で、注目するボクセルとの距離に近いカメラのテクスチャ画像の画素値ほど重みを大きくする。さらに、仮想視点情報で特定される任意の視点位置に基づきレンダリング用モデルを透視投影変換して、対象三次元空間上の二次元画像を生成する。
The
以上が、本実施形態に係る画像処理システムの構成の概要である。なお、前景抽出装置12a−12pと三次元モデル生成装置14との接続は、スター型、リング型、バス型等のいずれのネットワークトポロジーを採用してもよい。
The above is an outline of the configuration of the image processing system according to the present embodiment. For the connection between the
<三次元モデル生成装置の詳細>
続いて、本実施形態に係る、三次元モデル生成装置14における処理について詳しく説明する。
<Details of 3D model generator>
Subsequently, the processing in the three-dimensional
<ハードウェア構成>
図5は、三次元モデル生成装置14としての情報処理装置のハードウェア構成の一例を示すブロック図である。なお、前景抽出装置12、制御装置13、レンダリング装置15のハードウェア構成も、以下で説明する三次元モデル生成装置14と同様のハードウェア構成を備える。三次元モデル生成装置14は、CPU101、ROM102、RAM103、補助記憶装置104、表示部105、操作部106、通信I/F107、及びバス108を有する。
<Hardware configuration>
FIG. 5 is a block diagram showing an example of the hardware configuration of the information processing device as the three-dimensional
CPU101は、ROM102やRAM103に格納されているコンピュータプログラムやデータを用いて装置全体を制御することで、後述の図6に示す三次元モデル生成装置14の各機能を実現する。なお、CPU101とは異なる1又は複数の専用のハードウェアを有し、CPU101による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM102は、変更を必要としないプログラムなどを格納する。RAM103は、補助記憶装置104から供給されるプログラムやデータ、及び通信I/F107を介して外部から供給されるデータなどを一時記憶する。補助記憶装置104は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
The
表示部105は、例えば液晶ディスプレイやLED等で構成され、ユーザが三次元モデル生成装置14を操作するためのGUI(Graphical User Interface)などを表示する。操作部106は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU101に入力する。CPU101は、表示部105を制御する表示制御部、及び操作部106を制御する操作制御部として動作する。通信I/F107は、LAN等のネットワークを介して接続される外部装置との通信に用いられる。例えば、外部装置と有線で接続される場合には通信用のケーブルが通信I/F107に接続される。また、三次元モデル生成装置14が外部装置と無線通信する機能を有する場合には、通信I/F107はアンテナを備える。バス108は、上記各部を繋いで情報を伝達する。なお、表示部105と操作部106は、外部の独立した装置として存在していてもよい。
The
<ソフトウェア構成>
図6は、本実施形態の三次元モデル生成装置14のソフトウェア構成を示す機能ブロック図である。三次元モデル生成装置14は、入力部201、モデル生成条件設定部202、レンダリング用モデル生成部203、判定用モデル生成部204、モデル統合部205、可視性判定部206、出力部207を有する。これら各機能部は、上述した三次元モデル生成装置14内のCPU101が、ROM102或いは補助記憶装置104に格納された所定のプログラムをRAM103に展開してこれを実行することで実現される。以下、各部の機能について説明する。
<Software configuration>
FIG. 6 is a functional block diagram showing a software configuration of the three-dimensional
入力部201は、外部装置から各種データの入力を受け付ける。具体的には、制御装置13から各カメラ10a−10pのカメラパラメータを受信し、前景抽出装置群12からカメラ10a−10pそれぞれに対応するテクスチャ画像とマスク画像のデータを受信する。受信したカメラパラメータやマスク画像のデータは、可視性判定処理や三次元モデルの生成処理で用いるためにRAM103或いは補助記憶装置104に格納される。なお、受信したテクスチャ画像のデータは出力部108を介してレンダリング装置15に提供される。
The
モデル生成条件設定部202は、レンダリング用モデル及び判定用モデルの生成条件を、GUI(不図示)を介したユーザ入力等に基づいてそれぞれ設定する。ここで、判定用モデルとは、レンダリング用モデルの生成対象領域外に存在するオブジェクトの形状を表す三次元モデルであって、レンダリング用モデルの可視性判定にのみ使用する暫定的な三次元モデルを指す。レンダリング用モデルの生成条件には、その生成を行う対象空間(仮想視点映像における前景を描画する三次元領域)、およびレンダリング用モデルを構成する単位ボクセルの大きさなどの情報が含まれる。判定用モデルの生成条件には、その生成を行う対象空間(レンダリング用モデルを生成する三次元領域に隣接する所定の三次元領域)、および判定用モデルを構成する単位ボクセルの大きさなどの情報が含まれる。以降、レンダリング用モデルを生成する三次元領域を「レンダリング用領域」と呼び、判定用モデルを生成する三次元領域を「判定用領域」と呼ぶこととする。レンダリング用領域の設定は、撮影シーンに応じ、ユーザが任意の三次元領域を、GUI(不図示)などを介して指定することで行う。例えばサッカーの試合であれば図7(a)に示すように、長辺方向をフィールドの半面の長さ、短辺方向をフィールドの2/3の長さ、高さ方向を選手の身長の2倍程度とした三次元領域を設定する。そして、単位ボクセルのサイズは、生成する三次元モデルの細かさを規定するもので、例えば5mmといった値を設定する。そして、設定されたレンダリング用領域の周辺に判定用領域を設定する。図7(a)に示すレンダリング用領域に対しては、例えば図7(b)に示すような、長辺方向、短辺方向、高さ方向それぞれを数m拡げた、レンダリング用領域に隣接する三次元領域を、判定用領域として設定している。そして、判定用領域の単位ボクセルのサイズについては、レンダリング用領域の単位ボクセルと同じサイズでもよいが、一回り大きなサイズ(例えば5mmに対して10mmなど)を設定するのが望ましい。すなわち、以下の不等式で示す関係となるように単位ボクセルを決定するのが望ましい。
“レンダリング用領域のボクセルサイズ”≦“判定用領域のボクセルサイズ”
The model generation
"Voxel size of rendering area" ≤ "Voxel size of judgment area"
レンダリング用モデルの単位ボクセルのサイズを大きくするとそれだけ粗い三次元モデルとなって画質低下に繋がってしまう。これに対し、可視性判定のみに用いる判定用モデルはレンダリング用モデルを遮る可能性のあるオブジェクトの大凡の形状が把握できれば十分なため、粗い三次元モデルであっても支障はない。また、判定用モデルの単位ボクセルサイズを大きくすることでその分だけ処理負荷を低減できる。なお、図7(b)に示す判定用領域は、レンダリング用領域の全体を囲むように設定しているがこれに限定されない。その必要に応じて、例えば長辺方向の片側だけといったように、特定方向のみに隣接する領域を、判定用領域としてもよい。こうして設定された、レンダリング用モデル及び判定用モデルの生成条件(設定値)は、レンダリング用モデル生成部203及び判定用モデル生成部204に提供される。なお、レンダリング用モデル及び判定用モデルの生成条件は、GUIによる設定に限らず、CUI(Character User Interface)により設定してもよいし、当該条件が記憶されたファイルを読み込むことで設定するようにしても構わない。また、本実施形態では、1つのモデル生成条件設定部202にて、レンダリング用モデルの生成条件と判定用モデルの生成条件を設定しているが、別々の設定部で行うようにしてもよい。
Increasing the size of the unit voxel of the rendering model results in a coarser three-dimensional model, which leads to deterioration of image quality. On the other hand, since it is sufficient for the judgment model used only for the visibility judgment to grasp the approximate shape of the object that may block the rendering model, there is no problem even if it is a rough three-dimensional model. Further, by increasing the unit voxel size of the judgment model, the processing load can be reduced accordingly. The determination area shown in FIG. 7B is set so as to surround the entire rendering area, but the present invention is not limited to this. If necessary, a region adjacent only in a specific direction, such as only one side in the long side direction, may be used as a determination region. The rendering model and the determination model generation conditions (set values) set in this way are provided to the rendering
レンダリング用モデル生成部203は、モデル生成条件設定部202で設定されたレンダリング用モデル生成条件に基づき、入力部201に入力されたマスク画像とカメラパラメータを用いて、レンダリング用モデルを生成する。同様に、判定用モデル生成部204も、モデル生成条件設定部202で設定された判定用モデル生成条件に基づき、入力部201に入力されたマスク画像とカメラパラメータを用いて、判定用モデルを生成する。本実施形態では、レンダリング用モデル及び判定用モデルともに、視体積交差法によって、ボクセル集合で表現した三次元モデルが生成される。
The rendering
ここで、視体積交差法について説明する。図8の(a)〜(c)は、視体積交差法の基本原理を説明する図である。あるオブジェクトを撮像した画像からは、撮像面に当該オブジェクトの2次元シルエットを表すマスク画像が得られる(図8(a))。そして、カメラの投影中心からマスク画像の輪郭上の各点を通すように、三次元空間中に広がる錐体を考える(図8(b))。この錐体のことを該当するカメラによる対象の「視体積」と呼ぶ。さらに、複数の視体積の共通領域、すなわち視体積の交差を求めることによって、オブジェクトの三次元形状が求まる(図8(c))。なお、三次元モデルの生成手法として視体積交差法は一例であってこれに限定されるものではない。 Here, the visual volume crossing method will be described. 8 (a) to 8 (c) are diagrams for explaining the basic principle of the visual volume crossing method. From the image obtained by capturing an image of an object, a mask image showing the two-dimensional silhouette of the object can be obtained on the imaging surface (FIG. 8 (a)). Then, consider a cone that spreads in the three-dimensional space so as to pass each point on the contour of the mask image from the projection center of the camera (FIG. 8 (b)). This cone is called the "visual volume" of the object by the corresponding camera. Further, the three-dimensional shape of the object can be obtained by finding the common region of a plurality of visual volumes, that is, the intersection of the visual volumes (FIG. 8 (c)). The visual volume crossing method is an example of a three-dimensional model generation method, and the method is not limited to this.
モデル統合部205は、レンダリング用モデル生成部203で生成されたレンダリング用モデルと、判定用モデル生成部204で生成された判定用モデルを統合する。この統合によって、レンダリング用モデルと判定用モデルとが、共通の三次元空間内に配置されることになる。
The
可視性判定部206は、同一の三次元空間上に配置されたレンダリング用モデルと判定用モデルとを用いて、レンダリング用モデルの各ボクセルについての可視性判定を行う。図9の(a)及び(b)は、可視性判定の意義を説明する図である。いま、レンダリング用領域901内でモデルm1が生成され、隣接する判定用領域902内で判定用モデルm2が生成されている。カメラc1から見たとき、モデルm1を遮る位置にモデルm2は存在する。その結果、モデルm1を構成するボクセルの大部分は、カメラc1から見えない(不可視)と正しく判定することができる。一方、図9(b)は、判定用領域902を設定しない場合の例である。上述のとおり、カメラc1から見たときに、本来であればモデルm1を遮る位置にモデルm2が存在するはずである。しかし、モデルm2の位置はレンダリング用領域901の外であるため、そこにオブジェクトが存在していてもその三次元モデルが生成されない。その結果、モデルm1を構成するボクセルの大部分はカメラc1から見えないにも関わらず見えるものとして扱われ、その色づけ処理においては、仮想視点からの距離に応じた重み付けがなされてしまう。本実施形態では、レンダリング用の三次元モデルを生成する三次元領域に隣接する領域内でも可視性判定用の暫定的な三次元モデルを生成することで、このような問題の発生を抑止する。可視性判定では、まずレンダリング用モデル及び判定用モデルを構成する各ボクセルの座標系を、カメラパラメータに基づき、世界座標系からカメラ座標系に変換する。図10(a)は変換前の世界座標系を示し、同(b)は変換後のカメラc1を基準とするカメラ座標系を示している。そして、カメラ10a−10pを順に注目カメラとし、そのカメラ座標系におけるx座標とy座標が同一、かつ、z座標が小さいボクセルが他にあるかどうかを、各ボクセルを注目ボクセルとしてチェックする。そして、注目ボクセルとx座標とy座標が同一で、しかもz座標が小さいボクセルが他にある場合、当該注目ボクセルは、注目カメラからは見えない(不可視)と判定する。こうして、レンダリング用モデルについてボクセル単位で得られた可視性判定結果の情報は、出力部207へ提供される。
The
出力部207は、レンダリング用の三次元モデル、当該三次元モデルについての可視性判定結果、およびテクスチャ画像データを、レンダリング装置15へ出力する。
The
<三次元モデル生成装置における処理フロー>
図11は、本実施形態に係る、三次元モデル生成装置14における処理の流れを示すフローチャートである。図11のフローチャートの実行開始前において、制御装置13からカメラパラメータを受信しRAM103等に格納済みであり、また、レンダリング用モデル及び判定用モデルの生成条件がユーザ入力に基づき設定済みであるものとする。以下、図11のフローチャートに沿って、三次元モデル生成装置14における処理の流れを説明する。なお、以下の説明において記号「S」はステップを表す。
<Processing flow in 3D model generator>
FIG. 11 is a flowchart showing a processing flow in the three-dimensional
S1101では、入力部201が、三次元モデルの生成に必要な入力データ(カメラ単位のマスク画像のデータ)の受信を監視する。入力データの受信が検知されれば、S1102に進む。なお、本実施形態では、複数視点画像データは動画であることを前提としているので、S1102以降の処理はフレーム単位で実行される。
In S1101, the
S1102では、レンダリング用モデル生成部203が、モデル生成条件設定部202によって設定されたレンダリング用モデルの生成条件に従い、S1101で受信した入力データを用いて、レンダンリング用の三次元モデルを生成する。続くS1103では、判定用モデル生成部204が、モデル生成条件設定部202によって設定された判定用モデルの生成条件に従い、S1101で受信した入力データを用いて、可視性判定用の暫定的な三次元モデルを生成する。
In S1102, the rendering
S1104では、モデル統合部105が、S1102で生成されたレンダリング用の三次元モデルおよびS1103で生成された判定用の三次元モデルを、共通の三次元空間内に配置する。そして、S1105では、可視性判定部206が、共通の三次元空間に配置されたレンダリング用モデルを構成する各ボクセルについて、判定用モデルを含む他の三次元モデルによって遮られることがないか、各カメラからの可視性を判定する。
In S1104, the
S1106では、出力部207が、S1102で生成されたレンダリング用モデル、S1105で得られた可視性判定の結果を、レンダリング装置15に出力する。この際、入力部201が受け取ったテクスチャ画像のデータも一緒に出力される。
In S1106, the
S1107では、S1101で受信した入力データの全フレームについて処理が完了したか否かが判定される。未処理のフレームがあれば、S1102に戻って次のフレームを対象として処理が続行される。 In S1107, it is determined whether or not the processing is completed for all the frames of the input data received in S1101. If there is an unprocessed frame, the process returns to S1102 and processing is continued for the next frame.
以上が、本実施形態に係る、三次元モデル生成装置14における処理の流れである。なお、図11のフローチャートでは、出力部207はフレーム単位で出力を行っているが、複数フレーム分をまとめて出力してもよいし、入力データを構成する全フレーム分の処理が終了した時点でまとめて出力してもよい。
The above is the flow of processing in the three-dimensional
<変形例>
なお、本実施形態では、レンダリング用領域に隣接する予め規定した周辺領域を判定用領域として設定するものとしたが、これに限定されない。例えば、レンダリング用領域外のオブジェクトによってレンダリング用モデルにオクルージョンが発生し得る領域を算出して、判定用領域として設定してもよい。この算出の際には、前景となるオブジェクトの形状や大きさ、各カメラの位置及び姿勢を少なくとも含むカメラパラメータ、レンダリング用領域の形状や大きさといった情報などを考慮する。図9(c)は、判定用領域を算出する際の考え方を説明する図である。図9(c)において、モデルm4の位置は、レンダリング用領域901の境界に存在するモデルm3に対し、オクルージョンが生じる可能性のある限界点となる位置である。このモデルm4の位置を上述の情報を用いた計算によって求める。このような計算結果に基づき判定用領域を設定することで、より正確な可視性判定が可能となる。
<Modification example>
In the present embodiment, a predetermined peripheral area adjacent to the rendering area is set as the determination area, but the present invention is not limited to this. For example, an area where occlusion may occur in the rendering model due to an object outside the rendering area may be calculated and set as a determination area. In this calculation, information such as the shape and size of the foreground object, camera parameters including at least the position and orientation of each camera, and the shape and size of the rendering area are taken into consideration. FIG. 9C is a diagram illustrating a concept when calculating the determination area. In FIG. 9C, the position of the model m4 is a position that is a limit point where occlusion may occur with respect to the model m3 existing at the boundary of the
以上のとおり本実施形態によれば、処理負荷の増大を抑制しつつ、レンダリング対象の三次元モデルにおけるオクルージョンの発生箇所を正確に判別することができる。その結果、レンダリング時において、三次元モデルに対し適切な色づけが可能となり、高品質の仮想視点画像を得ることができる。 As described above, according to the present embodiment, it is possible to accurately determine the occurrence location of occlusion in the three-dimensional model to be rendered while suppressing the increase in processing load. As a result, it is possible to appropriately color the three-dimensional model at the time of rendering, and a high-quality virtual viewpoint image can be obtained.
[実施形態2]
次に、フィールド上に複数のレンダリング用領域が隣り合って設定される場合において、一方のレンダリング用領域の一部を他方の判定用領域として扱い、複数のレンダリング用領域間で三次元モデルを融通し合う態様を、実施形態2として説明する。なお、実施形態1と共通する部分については省略ないしは簡略化し、以下では差異点を中心に説明することとする。
[Embodiment 2]
Next, when a plurality of rendering areas are set adjacent to each other on the field, a part of one rendering area is treated as the other judgment area, and the three-dimensional model is accommodated among the plurality of rendering areas. The mode of mutual interaction will be described as the second embodiment. The parts common to the first embodiment will be omitted or simplified, and the differences will be mainly described below.
<システム構成>
図12は、本実施形態に係る、仮想視点画像を生成する画像処理システムの構成を示すブロック図である。画像処理システム1’は、実施形態1の図1で示した画像処理システム1に対し、カメラアレイ10’、前景抽出装置群12’、制御装置13’、三次元モデル生成装置14’の各要素が追加されている。追加要素10’、12’、13’、14’の働きは、実施形態1の図1における要素10、12、13、14の働きと同じである。
<System configuration>
FIG. 12 is a block diagram showing a configuration of an image processing system that generates a virtual viewpoint image according to the present embodiment. The image processing system 1'has each element of the camera array 10', the foreground extraction device group 12', the control device 13', and the three-dimensional model generation device 14'with respect to the
カメラアレイ10及びカメラアレイ10’を構成する各カメラは、図13に示すようにスタジアム内のフィールドを囲むように配置される。図示の都合上、カメラアレイ10’はカメラアレイ10の外側に配置されてフィールドから遠いように見えるが、フィールドまでの実際の距離は、カメラアレイ10とカメラアレイ10’とで略同一である。本実施形態の場合、カメラアレイ10を構成する各カメラ10a−10pはフィールド上の点T1を注視点として、カメラアレイ10’を構成する各カメラ10a’−10p’はフィールド上の点T2を注視点として、時刻を同期させて撮像を行う。
前景抽出装置群12から入力データを受け取る三次元モデル生成装置14と、前景抽出装置群12’から入力データを受け取る三次元モデル生成装置14’とは互いに接続されている。そして、三次元モデル生成装置14及び三次元モデル生成装置14’は、それぞれ自装置で生成したレンダリング用モデルの一部を、他方の装置に対し可視性判定用の三次元モデルとして提供する。
The
The three-dimensional
<ソフトウェア構成>
図14は、本実施形態の三次元モデル生成装置14及び14’のソフトウェア構成を示す機能ブロック図である。三次元モデル生成装置14及び14’は、入力部201、モデル生成条件設定部202’、レンダリング用モデル生成部203、モデル統合部205’、可視性判定部206’、出力部207を有する。そして、判定用モデル生成部204に代えて、判定用モデル送受信部1401及び判定用領域設定部1402を有する。以下、各部の機能について説明するが、実施形態1と同じ処理ブロック(入力部201、レンダリング用モデル生成部203、可視性判定部206及び出力部207)については説明を省略するものとする。
<Software configuration>
FIG. 14 is a functional block diagram showing software configurations of the three-dimensional
モデル生成条件設定部202’は、レンダリング用モデル生成部203がレンダリング用の三次元モデルを生成する際の生成条件(レンダリング用領域及びボクセルサイズ)を、GUIを介したユーザ入力に基づいて設定する。本実施形態では、自装置で生成したレンダリング用の三次元モデルの一部が他方の三次元モデル生成装置における判定用モデルとなるので、判定用モデル生成部204は存在しない。よって、本実施形態のモデル生成条件設定部202’は、判定用モデルの生成条件の設定は行わない。
The model generation condition setting unit 202'sets the generation conditions (rendering area and voxel size) when the rendering
判定用モデル送受信部1401は、自装置で生成されたレンダリング用モデルの一部を、他方の三次元モデル生成装置からの取得要求に基づき、判定用モデルとして送信する。また、他方の三次元モデル生成装置に対して、判定用モデルの取得要求を行って、他方の三次元モデル生成装置で生成されたレンダリング用モデルの一部を、自装置における判定用モデルとして受信する。図15(a)は、図12に示すカメラアレイ10の注視点T1に対応するレンダリング用領域_1と、カメラアレイ10’の注視点T2に対応するレンダリング用領域_2を示している。そして、図15(b)は、カメラアレイ10に対応する三次元モデル生成装置14についての送信領域と受信領域を示している。ここで、送信領域は、レンダリング用領域_1内の一部領域であって、自装置で生成したレンダリング用モデルを判定用モデルとして送信する際の対象領域を指す。この送信領域は、他装置14’からの所得要求の付帯情報において特定される。また、受信領域は、他装置14’から受信した判定用モデルが生成された領域(レンダリング用領域_2内の一部領域)であって、自装置における判定用領域_1を指す。この受信領域は、自装置14から他装置14’へ送る所得要求の付帯情報において特定される。同様に、図15(c)は、カメラアレイ10’に対応する三次元モデル生成装置14’についての送信領域と受信領域を示している。この場合の送信領域は、レンダリング用領域_2内の一部領域であって、自装置で生成したレンダリング用モデルを送信する際の対象となる領域を指す。また、受信領域は、他装置14から受け取る判定用モデルの生成された領域(レンダリング用領域_1内の一部領域)であって、自装置における判定用領域_2を指す。このように、本実施形態の場合、一方の三次元モデル生成装置において生成された三次元モデルの一部が、他方の三次元モデル生成装置での可視性判定処理における判定用モデルとして使用されることになる。
The determination model transmission /
判定用領域設定部1402は、上述の所得要求の付帯情報において定義する、自装置における判定用領域(すなわち、受信領域)を、ユーザ入力に基づいて設定する。この際の設定対象となる領域は、前述のとおり、他方のレンダリング用領域内の一部であって、自装置におけるレンダリング用領域に隣接する領域である。
The determination
モデル統合部205’は、レンダリング用モデル生成部203で生成されたレンダリング用モデルと、判定用モデル送受信部1401が他方の三次元モデル生成装置から受信した判定用モデルとを統合する。
The model integration unit 205'integrates the rendering model generated by the rendering
<三次元モデル生成装置における処理フロー>
図16は、本実施形態に係る、三次元モデル生成装置14/14’における処理の流れを示すフローチャートである。図16のフローチャートの実行開始前において、制御装置13からカメラパラメータを受信しRAM103等に済みであり、また、レンダリング用モデルの生成条件及び送信領域がユーザ入力に基づき設定済みであるものとする。さらに、他方の三次元モデル生成装置からの判定用モデルの取得要求についても、本フローの実行開始前に受信済みであるものとする。以下、図16のフローチャートに沿って、三次元モデル生成装置14/14’における処理の流れを説明する。
<Processing flow in 3D model generator>
FIG. 16 is a flowchart showing a processing flow in the three-dimensional
S1601では、図11のフローのS1101と同様、入力部201が、三次元モデルの生成に必要な入力データ(すなわち、カメラ単位のマスク画像とテクスチャ画像のデータ)の受信を監視する。入力データの受信が検知されれば、S1602に進む。なお、本実施形態も、複数視点画像データは動画であることを前提としているので、S1602以降の処理はフレーム単位で実行される。
In S1601, the
S1602では、図11のフローのS1102と同様、S1601で受信した入力データを用いてレンダリング用モデル生成部203がレンダンリング用の三次元モデルを生成する。生成したレンダリング用モデルは、モデル統合部205’及び出力部207に加え、判定用モデル送受信部1401に提供される。
S1603では、判定用モデル送受信部1401が、S1602で生成したレンダリング用モデルのうち、他方の三次元モデル生成装置からの取得要求で特定される領域内に存在するレンダリング用モデルを抽出する。ここで抽出されたレンダリング用モデルが、他方の三次元モデル生成装置における判定用モデルとなる。
In S1602, similarly to S1102 of the flow of FIG. 11, the rendering
In S1603, the determination model transmission /
S1604では、判定用モデル送受信部1401が、S1603で抽出したレンダリング用モデルを、取得要求の送信元である他方の三次元モデル生成装置へ送信する。続くS1605では、判定用モデル送受信部1401が、事前に送信した取得要求に基づき、他方の三次元モデル生成装置から判定用モデルを受信する。
In S1604, the determination model transmission /
以降のS1606〜S1609の各ステップは、図11のフローにおけるS1104〜S1107にそれぞれ対応する。すなわち、S1602で生成されたレンダリング用モデルとS1605で受信した判定用モデルを共通の三次元空間内に配置し(S1606)、レンダリング用モデルを構成する各ボクセルについて可視性判定処理をカメラ単位で実行する(S1607)。そして、S1602で生成されたレンダリング用モデル、S1607で得られた可視性判定の結果が、テクスチャ画像のデータと共にレンダリング装置15に出力され(S1608)、それが全フレーム分繰り返される(S1609)。
Subsequent steps of S1606 to S1609 correspond to S1104 to S1107 in the flow of FIG. That is, the rendering model generated in S1602 and the judgment model received in S1605 are arranged in a common three-dimensional space (S1606), and the visibility judgment processing is executed for each camera for each voxel constituting the rendering model. (S1607). Then, the rendering model generated in S1602 and the result of the visibility determination obtained in S1607 are output to the
以上が、本実施形態に係る、三次元モデル生成装置14/14’における処理の流れである。なお、出力部207における出力を、フレーム単位に代えて、複数フレーム単位や入力データ単位としてもよいことは実施形態1と同様である。また、本実施形態では、2台の三次元モデル装置間で双方の三次元モデルを融通し合う例を説明したがこれに限定されない。例えば、カメラアレイや前景抽出装置群などをさらに増やして3つ以上のレンダリング用領域を設定し、3台以上の三次元モデル生成装置間でそれぞれ生成した三次元モデルを融通し合ってもよい。
The above is the flow of processing in the three-
本実施形態によっても、処理負荷の増大を抑制しつつ、レンダリング対象の三次元モデルにおけるオクルージョンの発生箇所を正確に判別することができる。特に、本実施形態の場合は、他方の三次元モデル生成装置が生成したレンダリング用の三次元モデルを判定用モデルとして使用するため、より高精度で可視性判定を行うことができ、より高品位な仮想視点映像を得ることができる。 Also in this embodiment, it is possible to accurately determine the occurrence location of occlusion in the three-dimensional model to be rendered while suppressing the increase in processing load. In particular, in the case of the present embodiment, since the three-dimensional model for rendering generated by the other three-dimensional model generator is used as the judgment model, the visibility judgment can be performed with higher accuracy and the quality is higher. Virtual viewpoint video can be obtained.
<その他の実施例>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Examples>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1 画像処理システム
14 三次元モデル生成装置
203 レンダリング用モデル生成部
204 判定用モデル生成部
206 可視性判定部
1401 判定用モデル送受信部
1
Claims (14)
前記同期撮像の対象三次元空間のうち前記所定の三次元領域とは異なる三次元領域で生成された形状データを取得する取得手段と、
前記取得手段で取得された形状データを用いて、前記生成手段で生成された形状データについて、前記撮像装置からの可視性判定を行う判定手段と、
前記生成手段で生成された形状データを、前記可視性判定の結果と共に出力する出力手段と、
を有し、
前記判定手段は、前記生成手段で生成された形状データが、前記取得手段で取得された形状データによって遮られるかどうかを判定する
ことを特徴とする画像処理装置。 Shape data representing the three-dimensional shape of an object included in at least one of the multi-viewpoint images obtained by synchronous imaging with a plurality of imaging devices is generated in a predetermined three-dimensional region in the target three-dimensional space of the synchronous imaging. Generation means to be
An acquisition means for acquiring shape data generated in a three-dimensional region different from the predetermined three-dimensional region in the target three-dimensional space for synchronous imaging, and
Using the shape data acquired by the acquisition means, a determination means for determining the visibility of the shape data generated by the generation means from the image pickup apparatus, and
An output means that outputs the shape data generated by the generation means together with the result of the visibility determination, and
Have,
The image processing apparatus is characterized in that the determination means determines whether or not the shape data generated by the generation means is blocked by the shape data acquired by the acquisition means.
前記生成手段で生成された形状データ及び前記取得手段で取得された形状データの座標系を世界座標系から撮像装置座標系に変換し、
前記取得手段で取得された形状データの位置が注目する撮像装置に対してより近い場合に、前記生成手段で生成された形状データが、前記取得手段で取得された形状データによって遮られる、と判定する
ことを特徴とする請求項6に記載の画像処理装置。 The determination means
The coordinate system of the shape data generated by the generation means and the shape data acquired by the acquisition means is converted from the world coordinate system to the image pickup device coordinate system.
When the position of the shape data acquired by the acquisition means is closer to the image pickup device of interest, it is determined that the shape data generated by the generation means is blocked by the shape data acquired by the acquisition means. The image processing apparatus according to claim 6, wherein the image processing apparatus is used.
前記取得手段は、前記外部装置から、前記同期撮像の対象三次元空間のうち前記所定の三次元領域とは異なる三次元領域で生成された形状データを受信することにより取得する、
ことを特徴とする請求項1又は2に記載の画像処理装置。 An external device having means for generating shape data representing a three-dimensional shape of an object to be captured in a multi-viewpoint image obtained by synchronous imaging with the plurality of imaging devices in a three-dimensional region different from the predetermined three-dimensional region. Connected with
The acquisition means acquires by receiving shape data generated in a three-dimensional region different from the predetermined three-dimensional region in the target three-dimensional space of the synchronous imaging from the external device.
The image processing apparatus according to claim 1 or 2.
前記生成手段で生成された形状データ及び前記取得手段で取得された形状データの座標系を世界座標系から撮像装置座標系に変換し、
前記取得手段で取得された形状データの位置が前記撮像装置により近い場合に、前記生成手段で生成された形状データが、前記取得手段で取得された形状データによって遮られる、と判定する
ことを特徴とする請求項10に記載の画像処理装置。 The determination means
The coordinate system of the shape data generated by the generation means and the shape data acquired by the acquisition means is converted from the world coordinate system to the image pickup device coordinate system.
When the position of the shape data acquired by the acquisition means is closer to the image pickup apparatus, it is determined that the shape data generated by the generation means is blocked by the shape data acquired by the acquisition means. The image processing apparatus according to claim 10.
前記同期撮像の対象三次元空間のうち前記所定の三次元領域とは異なる三次元領域で生成された形状データを取得する取得手段と、
前記取得手段で取得された形状データを用いて、前記生成手段で生成された形状データについて、前記撮像装置からの可視性判定を行う判定手段と、
前記生成手段で生成された形状データを、前記可視性判定の結果と共に出力する出力手段と、
前記同期撮像を行った三次元空間内に設定された仮想視点の情報を取得する取得手段と、
前記取得手段で取得された前記仮想視点の情報、前記出力手段で出力された前記可視性判定の結果に基づき、前記出力手段で出力された前記形状データに対して色付け処理を行うレンダリング手段と、
を有し、
前記判定手段は、前記生成手段で生成された形状データが、前記取得手段で取得された形状データによって遮られるかどうかを判定する
ことを特徴とする画像処理システム。 Shape data representing the three-dimensional shape of an object included in at least one of the multi-viewpoint images obtained by synchronous imaging with a plurality of imaging devices is generated in a predetermined three-dimensional region in the target three-dimensional space of the synchronous imaging. Generation means to be
An acquisition means for acquiring shape data generated in a three-dimensional region different from the predetermined three-dimensional region in the target three-dimensional space for synchronous imaging, and
Using the shape data acquired by the acquisition means, a determination means for determining the visibility of the shape data generated by the generation means from the image pickup apparatus, and
An output means that outputs the shape data generated by the generation means together with the result of the visibility determination, and
An acquisition means for acquiring information of a virtual viewpoint set in the three-dimensional space where the synchronous imaging was performed, and
A rendering means for coloring the shape data output by the output means based on the information of the virtual viewpoint acquired by the acquisition means and the result of the visibility determination output by the output means.
Have,
The image processing system is characterized in that the determination means determines whether or not the shape data generated by the generation means is blocked by the shape data acquired by the acquisition means.
前記同期撮像の対象三次元空間のうち前記所定の三次元領域とは異なる三次元領域で生成された形状データを取得する取得ステップと、
前記取得ステップにて取得された形状データを用いて、前記生成ステップにて生成された形状データについて、前記撮像装置からの可視性判定を行う判定ステップと、
前記生成ステップにて生成された形状データを、前記可視性判定の結果と共に出力する出力ステップと、
を含み、
前記判定ステップでは、前記生成ステップにて生成された形状データが、前記取得ステップにて取得された形状データによって遮られるかどうかを判定する
ことを特徴とする画像処理方法。 Shape data representing the three-dimensional shape of an object included in at least one of the multi-viewpoint images obtained by synchronous imaging with a plurality of imaging devices is generated in a predetermined three-dimensional region in the target three-dimensional space of the synchronous imaging. Generation steps and
An acquisition step of acquiring shape data generated in a three-dimensional region different from the predetermined three-dimensional region in the target three-dimensional space of the synchronous imaging, and
Using the shape data acquired in the acquisition step, a determination step of determining the visibility of the shape data generated in the generation step from the imaging device, and
An output step that outputs the shape data generated in the generation step together with the result of the visibility determination,
Including
The image processing method is characterized in that the determination step determines whether or not the shape data generated in the generation step is blocked by the shape data acquired in the acquisition step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019133559A JP2021018570A (en) | 2019-07-19 | 2019-07-19 | Image processing apparatus, image processing system, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019133559A JP2021018570A (en) | 2019-07-19 | 2019-07-19 | Image processing apparatus, image processing system, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021018570A true JP2021018570A (en) | 2021-02-15 |
Family
ID=74564326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019133559A Pending JP2021018570A (en) | 2019-07-19 | 2019-07-19 | Image processing apparatus, image processing system, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021018570A (en) |
-
2019
- 2019-07-19 JP JP2019133559A patent/JP2021018570A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6425780B1 (en) | Image processing system, image processing apparatus, image processing method and program | |
US11798224B2 (en) | Generation apparatus, system and method for generating virtual viewpoint image | |
JP7051457B2 (en) | Image processing equipment, image processing methods, and programs | |
KR102125293B1 (en) | Generation device, generation method, and storage medium | |
JP4828506B2 (en) | Virtual viewpoint image generation device, program, and recording medium | |
JP5966256B2 (en) | Image processing apparatus and method, program, and recording medium | |
US20130095920A1 (en) | Generating free viewpoint video using stereo imaging | |
US20190132529A1 (en) | Image processing apparatus and image processing method | |
KR20160121569A (en) | Image processing method and image processing device | |
KR20140100656A (en) | Point video offer device using omnidirectional imaging and 3-dimensional data and method | |
KR102067823B1 (en) | Method and apparatus for operating 2d/3d augument reality technology | |
Meerits et al. | Real-time diminished reality for dynamic scenes | |
JP2018026064A (en) | Image processor, image processing method, system | |
JP7285834B2 (en) | Three-dimensional reconstruction method and three-dimensional reconstruction apparatus | |
JP6541920B1 (en) | INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD | |
JP2019103126A (en) | Camera system, camera control device, camera control method, and program | |
JP7371623B2 (en) | Display control device, program and display control method | |
US20220230337A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2021018570A (en) | Image processing apparatus, image processing system, image processing method and program | |
JP7278720B2 (en) | Generation device, generation method and program | |
JP6759375B2 (en) | Systems, methods and programs that generate virtual viewpoint images | |
JP6759300B2 (en) | Information processing equipment, information processing methods and programs | |
US20230289987A1 (en) | Shape estimation apparatus, processing method, and computer-readable storage medium | |
WO2020209108A1 (en) | Image processing device, 3d model generation method, and program | |
JP2023026244A (en) | Image generation apparatus, image generation method, and program |