JP2020005089A - Imaging system, image processing apparatus, image processing method, and program - Google Patents
Imaging system, image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2020005089A JP2020005089A JP2018121985A JP2018121985A JP2020005089A JP 2020005089 A JP2020005089 A JP 2020005089A JP 2018121985 A JP2018121985 A JP 2018121985A JP 2018121985 A JP2018121985 A JP 2018121985A JP 2020005089 A JP2020005089 A JP 2020005089A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- cameras
- image
- determined
- predetermined position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Accessories Of Cameras (AREA)
- Image Generation (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、仮想視点画像を生成する際に用いる複数視点画像を取得するシステム及び仮想視点画像を生成する技術に関する。 The present invention relates to a system for acquiring a plurality of viewpoint images used when generating a virtual viewpoint image and a technique for generating a virtual viewpoint image.
被写体(オブジェクト)を複数のカメラで撮像して得られた画像(複数視点画像)から、当該オブジェクトを任意の仮想視点から見た際に得られる画像(仮想視点画像)を生成する技術が知られている。そして、仮想視点画像の品質は、オブジェクトを撮像したカメラの台数と複数視点画像の品質に依存する。例えば、サッカーやラグビーといったスポーツの試合では、選手等のオブジェクトが競技フィールドなどの広い撮像空間に散らばって動いている。このような撮像シーンにおいて、複数のカメラをフィールドの中央に向けて設置した場合、フィールド中央にいる選手等に関しては高品質な仮想視点画像を生成できる。一方で、フィールドの端部にいる選手等に関しては、当該選手等をその画角内に収めているカメラが限られるため、仮想視点画像の生成に必要な複数視点画像が得られない又は低品質の仮想視点画像しか得られない可能性がある。設置する全てのカメラの画角をフィールド全体が収まるように設定すれば、選手等のフィールド上の位置に拠らず十分な複数視点画像を得ることができ、一定品質の仮想視点画像が生成可能ではある。しかし、その場合の各撮像画像に写る選手等のサイズは小さく、そのテクスチャは低解像度になってしまうため、得られる仮想視点画像におけるオブジェクトのテクスチャも低解像度となってしまう。 2. Description of the Related Art A technique for generating an image (virtual viewpoint image) obtained when an object (object) is viewed from an arbitrary virtual viewpoint from an image (multiple viewpoint images) obtained by capturing an object with a plurality of cameras is known. ing. The quality of the virtual viewpoint image depends on the number of cameras that have captured the object and the quality of the multi-viewpoint image. For example, in sports games such as soccer and rugby, objects such as players move around a large imaging space such as a competition field. In such an imaging scene, when a plurality of cameras are installed facing the center of the field, a high-quality virtual viewpoint image can be generated for a player or the like at the center of the field. On the other hand, for a player or the like at the end of the field, since the camera that holds the player or the like within the angle of view is limited, a multi-view image required for generating the virtual viewpoint image cannot be obtained or the quality is low. There is a possibility that only the virtual viewpoint image is obtained. By setting the angle of view of all cameras to be set so that the entire field can be accommodated, sufficient multiple viewpoint images can be obtained regardless of the position of the players etc. on the field, and virtual viewpoint images of constant quality can be generated Yes. However, in such a case, the size of a player or the like appearing in each captured image is small, and the texture thereof has a low resolution. Therefore, the texture of the object in the obtained virtual viewpoint image also has a low resolution.
この点、特許文献1には、特定のオブジェクトを追った非固定のズームカメラを追加的に設け、当該特定のオブジェクトについて解像度の高いテクスチャを追加で用いることで高品質な仮想視点画像を生成する方法が記載されている。 In this regard, Patent Literature 1 additionally provides a non-fixed zoom camera that tracks a specific object, and generates a high-quality virtual viewpoint image by additionally using a high-resolution texture for the specific object. A method is described.
上記特許文献1に記載の技術では、非固定ズームカメラで追った特定オブジェクトについてしか仮想視点画像の品質を向上させることができない。そのため、特許文献1の技術を適用して、フィールド上に多数の選手等のオブジェクトが存在するスポーツのシーンなどを対象に十分な複数視点画像を得ようとすれば、膨大な数のカメラが必要になってしまう。実際には、スタジアムなどに設置可能なカメラの台数には物理的なスペースやコストなどの面で制限があることから、多くのオブジェクトが存在するような撮像シーンにも、より少ないカメラ台数で対応可能な技術が望まれる。 According to the technology described in Patent Document 1, the quality of the virtual viewpoint image can be improved only for a specific object tracked by a non-fixed zoom camera. Therefore, if the technique of Patent Document 1 is applied to obtain a sufficient multi-viewpoint image for a sports scene or the like in which many objects such as players exist on the field, an enormous number of cameras are required. Become. Actually, the number of cameras that can be installed in a stadium or the like is limited due to physical space, cost, etc., so a smaller number of cameras can be used for imaging scenes with many objects A possible technology is desired.
本発明に係る、仮想視点画像を生成するための複数視点画像を取得するシステムは、所定の位置を異なる方向から撮像するように設置された複数のカメラを有し、前記複数のカメラには、第一のカメラと、前記所定の位置を通り撮像フィールドに対して垂直な軸を中心とする、前記第一のカメラの2回対称の位置又は前記2回対称の位置に前記複数のカメラの中で最も近い位置に設置された第二のカメラ、とからなる少なくとも1組のカメラが含まれ、前記第一のカメラと前記第二のカメラとでは、その特性を規定するパラメータのうち撮像画像におけるオブジェクトのテクスチャ解像度及びカメラの撮影範囲の少なくとも一方に影響するパラメータが異なることを特徴とする。 According to the present invention, a system for acquiring a multi-viewpoint image for generating a virtual viewpoint image includes a plurality of cameras installed so as to capture a predetermined position from different directions, and the plurality of cameras include: A first camera, and a two-fold symmetric position of the first camera or the two-fold symmetric position of the plurality of cameras at an axis perpendicular to an imaging field passing through the predetermined position. And a second camera installed at a position closest to the camera, and at least one set of cameras including the first camera and the second camera. It is characterized in that parameters affecting at least one of the texture resolution of the object and the shooting range of the camera are different.
本発明によれば、限られたカメラ台数で高品質な仮想視点画像を生成することができる。 According to the present invention, a high-quality virtual viewpoint image can be generated with a limited number of cameras.
以下、本発明の実施形態について図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the following embodiments do not limit the present invention, and not all combinations of the features described in the present embodiments are necessarily essential to the solution of the present invention. The same components will be described with the same reference numerals.
本実施形態では、撮像画像におけるオブジェクトサイズが小さいことに由来する仮想視点画像の解像感の低下抑制、及びカメラの数が少ないことに由来する仮想視点画像の品質低下が起きる領域の削減を考慮した、システム構成の決定方法について説明する。以下では、仮想視点画像における解像感の低下抑制を「画質の向上」、仮想視点画像の品質低下が起きる領域の削減を「視点の自由度の向上」、とそれぞれ表現する場合がある。なお、仮想視点画像とは、エンドユーザ及び/又は選任のオペレータ等が自由に仮想視点に対応するカメラ(仮想カメラ)の位置及び姿勢を操作することによって生成される画像であり、自由視点画像や任意視点画像などとも呼ばれる。また、仮想視点画像は、動画であっても、静止画であってもよい。 In the present embodiment, consideration is given to suppressing a reduction in the sense of resolution of the virtual viewpoint image resulting from the small object size in the captured image and reducing the area in which the quality of the virtual viewpoint image is reduced due to the small number of cameras. The method of determining the system configuration will be described. Hereinafter, suppression of a reduction in the resolution of the virtual viewpoint image may be referred to as “improvement of image quality”, and reduction of a region where the quality of the virtual viewpoint image is reduced may be referred to as “improvement of degree of freedom of viewpoint”. The virtual viewpoint image is an image generated by an end user and / or an appointed operator or the like freely operating the position and orientation of a camera (virtual camera) corresponding to the virtual viewpoint, and includes a free viewpoint image and Also called an arbitrary viewpoint image. Further, the virtual viewpoint image may be a moving image or a still image.
図1は、本実施形態に係る、オブジェクトを異なる視点から撮像するためのカメラ配置の一例を示す図であり、(a)は三次元の俯瞰図、(b)は真上から見た二次元平面図を示している。このカメラ配置では、7台のカメラ11〜17で撮像を行って、仮想視点画像を生成するための複数視点画像を取得する。7台という台数は一例であり、サッカーやラグビーといった広大な空間を対象に撮像を行う場合にはさらに多くのカメラが設置されることはいうまでもない。図1(a)及び(b)に示すように、カメラ11〜17は、撮像空間の全周を取り囲むように配置されている。また、カメラ11〜17は、撮像フィールド(撮像空間の底面)10上に設定される任意の注視点18に向けて設置されている。ここで、注視点とは、カメラが注視する撮像空間内の任意の点(カメラの視線方向)を示すものであり、図1に示すカメラ11〜17は、同一の注視点18を向いている。いま、注視点18は、各カメラの光軸と底面18との交点に位置する。注視点の位置は任意であり、例えば撮像空間内の空中に設定してもよい。
1A and 1B are diagrams illustrating an example of a camera arrangement for imaging an object from different viewpoints according to the present embodiment, where FIG. 1A is a three-dimensional bird's-eye view, and FIG. FIG. In this camera arrangement, images are taken by the seven
従来であれば、視点の自由度向上のために、カメラ11〜17のすべてに対し、撮像空間のおおよそ全体が視野内に入るような広い画角を設定していた。そのため、複数のカメラにより得られた複数視点画像における人物などのオブジェクトのテクスチャは低解像度となり、その結果、生成した仮想視点画像も低画質なものしか得られなかった。図2(a)は、カメラ11とその対向する位置にあるカメラ15とが同じ画角を持つ場合に得られる撮像画像を説明する図である。両カメラの画角が同一である場合、カメラ11では撮像画像24が得られ、カメラ15では撮像画像25が得られる。この場合、双方の撮像画像24及び25に写る人物オブジェクト21〜23の数や種類はおおよそ同一(図2(a)の例では完全に一致)となる。さらに、視体積公差法などの手法によってオブジェクトの三次元形状データを生成する場合、撮像画像24に基づくシルエット画像26と撮像画像25に基づくシルエット画像27とは、左右が反転しているだけで、そこから得られる情報に大きな違いはない。そのため、カメラ11(又はカメラ15)で得られた撮像画像を除外して三次元形状データの生成を行ったとしても、除外しない場合に比べて、生成されるオブジェクトの三次元形状データの精度はそれほど変わらない。
In the related art, in order to improve the degree of freedom of the viewpoint, a wide angle of view is set for all of the
上記従来技術に対し本実施形態では、注視点を挟んで向かい合って設置されているカメラ同士に異なる画角を設定し、一方のカメラには広い画角を、もう一方のカメラには狭い画角を設定する。具体的には、カメラ11、12、13、14、16及び17に対しては、撮像フィールド10を含む撮像空間のおおよそ全体が視野に入るような画角を設定する。そして、カメラ11と注視点18とを結ぶ線(以下、「基線」と呼ぶ。)19上の対向する位置に存在するカメラ15に対しては、カメラ11と比べて狭い画角を設定する。図2(b)は、カメラ11の対向する位置にあるカメラ15が、カメラ11よりも狭い画角を持つ場合に得られる撮像画像を説明する図である。この場合、カメラ15ではオブジェクトがより拡大された(つまり、テクスチャの解像度が高い)撮像画像28とそのシルエット画像29が得られる。このように、注視点を挟んで向かい合って設置されるカメラ同士には異なる画角を設定することにより、生成されるオブジェクトの三次元形状データの精度を低下させることなく、当該オブジェクトについての解像度の高いテクスチャ画像を取得することができる。その結果、視点の自由度を担保しながら高画質の仮想視点画像を生成することが可能となる。
In the present embodiment, different angles of view are set for the cameras installed facing each other with the point of gaze in between, and one camera has a wide angle of view, and the other camera has a narrow angle of view. Set. Specifically, an angle of view is set for the
本実施形態では、設置するカメラが7台の場合を例に説明を行ったが、カメラ台数は少なくとも2台以上であればよく、注視点を挟んで向かい合う(より望ましくは、注視点を中心軸として2回対称の位置に存在する)1組のカメラが含まれていればよい。このとき、各カメラは同一の注視点を向いている必要があるが、およそ同一の注視点を向いていると評価可能な範囲内の微差は許容される。なお、カメラ群単位でまったく異なる注視点が設定されているような場合は、注視点毎に本実施形態を適用可能である。例えば、サッカーのフィールドの左半分と右半分をそれぞれ担当する2つのカメラ群が存在し、カメラ群毎に別個の注視点(例えばそれぞれのゴール前付近)が設定されている場合は、それぞれの注視点に対応するカメラ群単位で本実施形態を適用すればよい。 In the present embodiment, the case where seven cameras are installed has been described as an example. However, the number of cameras may be at least two or more, and the cameras face each other with the point of gaze therebetween (more preferably, the center of gaze is set at the center axis). It is only necessary that a set of cameras be included. At this time, each camera needs to face the same gazing point, but a slight difference within a range that can be evaluated when the cameras are facing the same gazing point is allowed. Note that when completely different points of interest are set for each camera group, the present embodiment is applicable to each point of interest. For example, if there are two camera groups that are respectively responsible for the left half and the right half of the soccer field, and each camera group has a different gazing point (for example, near the front of each goal), This embodiment may be applied to each camera group corresponding to the viewpoint.
また、本実施形態では、対の関係になる1組のカメラは、注視点を中心として等距離にあるカメラ同士となっているが、注視点からの距離が同じでなくてもよい。さらに、組合せとなるカメラは、注視点を挟んで略対向する位置にあればよい。例えば、図1(b)において、カメラ17を基準とし、当該カメラ17と注視点18とを結ぶ破線で示す基線19’からわずかにずれた位置に存在するカメラ13の画角を変更してもよい。どの程度のずれまでを許容するかは、撮像対象となる空間の広さやカメラの設置台数など、種々の条件を加味して決定されることになる。このように、1組のカメラは、あるカメラと、注視点を通り撮像フィールドに対して垂直な軸を中心とする、そのカメラの2回対称の位置又は2回対称の位置に複数のカメラの中で最も近い位置に設置されたカメラと、からなる。そして、必ずしも1組のカメラは、注視点を挟んで対向していなくてもよい。
Further, in the present embodiment, a pair of cameras in a pair relationship are cameras equidistant from the gazing point, but the distances from the gazing point may not be the same. Furthermore, the cameras to be combined only need to be at positions substantially facing each other across the point of regard. For example, in FIG. 1B, even when the angle of view of the
また、本実施形態では、対の関係にある1組カメラのうちの一方のカメラの画角を、他方のカメラよりも狭くしていたが、これに限定されない。例えば、特性を変更しない方のカメラの画角を標準よりも狭く設定しておき、特性を変更する方のカメラの画角を広くしてもよい。また、特性を変更しない方のカメラの画角はすべて同一である必要はなく、カメラ毎に異なっていてもよい。 Further, in the present embodiment, the angle of view of one of the paired cameras in the pair is narrower than that of the other camera, but the present invention is not limited to this. For example, the angle of view of the camera whose characteristic is not changed may be set narrower than the standard, and the angle of view of the camera whose characteristic is changed may be widened. Also, the angles of view of the cameras whose characteristics are not changed need not be the same, and may differ for each camera.
また、本実施形態では、オブジェクトのテクスチャ解像度に影響を与えるカメラ特性のパラメータとして画角を変更していたが、変更対象のパラメータは、画角に限られない。オブジェクトのテクスチャ解像度に影響のある他のパラメータ、例えば、焦点距離、撮像センサのサイズ、センサの種類、レンズの種類などでもよい。例えば、焦点距離を長くしたり、レンズを望遠レンズに変更したりすることで、画角を狭くするのと同じ効果が得られる。さらには、4K対応のカメラから8K対応のカメラに変更するなどしてもよい。 In the present embodiment, the angle of view is changed as a parameter of the camera characteristic that affects the texture resolution of the object. However, the parameter to be changed is not limited to the angle of view. Other parameters that affect the texture resolution of the object, such as the focal length, the size of the imaging sensor, the type of sensor, and the type of lens may be used. For example, by increasing the focal length or changing the lens to a telephoto lens, the same effect as narrowing the angle of view can be obtained. Further, the camera that supports 4K may be changed to a camera that supports 8K.
以上説明した考え方に従って、撮像空間を囲むように設置するカメラの構成を決定することで、カメラ台数を抑えつつ、仮想視点画像の生成における視点の自由度と画質向上とを両立可能な画像処理システムを構築することができる。 By determining the configuration of the cameras installed so as to surround the imaging space in accordance with the concept described above, an image processing system capable of achieving both a degree of freedom of viewpoint and an improvement in image quality in generating a virtual viewpoint image while suppressing the number of cameras. Can be constructed.
実施形態1では、設置するカメラ台数を抑えつつ、仮想視点画像の画質向上と視点の自由度向上とを両立させることが可能なカメラ構成を決定するための基本的な考え方について説明した。次に、実施形態1で説明した考え方に従ってカメラ構成を決定し、そのカメラ構成の下で複数視点画像を取得して仮想視点画像を生成する画像処理システムについて説明する。 In the first embodiment, the basic concept for determining a camera configuration capable of achieving both improvement in the image quality of the virtual viewpoint image and improvement in the degree of freedom of the viewpoint while suppressing the number of cameras to be installed has been described. Next, an image processing system that determines a camera configuration according to the concept described in the first embodiment, acquires a plurality of viewpoint images under the camera configuration, and generates a virtual viewpoint image will be described.
以下で説明するカメラ構成を決定する装置は、撮像空間における所定の位置を異なる方向から撮像するように設置された複数のカメラの位置及び姿勢を示すカメラ情報を取得する及び注視点の位置情報を取得し、それらの情報基づき、カメラの構成配置を決定する装置である。この装置は、所定の位置を通り撮像フィールドに対して垂直な軸を中心とする2回対称の位置又は2回対称の位置に最も近い位置に設置された、第一のカメラと第二のカメラとからなる少なくとも1組のカメラについて、その構成を決定する。具体的には、この装置により、1組のカメラを構成する第一のカメラと第二のカメラとでは、撮像画像におけるオブジェクトのテクスチャ解像度及びカメラの撮影範囲の少なくとも一方に影響するパラメータが異なるように、カメラ構成が決定される。また、この装置によって、所定の位置を挟んで対向する1組のカメラにおいて、その2つのカメラの特性を規定するパラメータのうち撮像画像におけるオブジェクトのテクスチャ解像度に影響するパラメータが異なるように、カメラ構成が決定される。つまり、この装置を用いれば、カメラ情報と注視点の位置情報とを外部から入力して、適切なカメラの構成を決定することが可能となる。 An apparatus for determining a camera configuration described below acquires camera information indicating the positions and orientations of a plurality of cameras installed to image a predetermined position in an imaging space from different directions, and obtains position information of a gazing point. It is a device that obtains and determines the configuration of the camera based on the information. The apparatus comprises a first camera and a second camera installed at or closest to a two-fold symmetric position about an axis passing through a predetermined position and perpendicular to an imaging field. The configuration is determined for at least one set of cameras consisting of Specifically, with this device, the parameters that affect at least one of the texture resolution of the object in the captured image and the shooting range of the camera differ between the first camera and the second camera that constitute one set of cameras. Next, the camera configuration is determined. In addition, the camera configuration is such that a set of cameras facing each other across a predetermined position has different parameters affecting the texture resolution of the object in the captured image among the parameters defining the characteristics of the two cameras. Is determined. That is, by using this device, it is possible to input the camera information and the position information of the gazing point from the outside, and determine an appropriate camera configuration.
(システム構成)
本実施形態に係る、仮想視点画像を生成する画像処理システムについて、図3のシステム構成図を用いて説明する。画像処理システム100は、撮像モジュール110a〜110g、データベース(DB)250、サーバ270、制御装置300、スイッチングハブ180、及びエンドユーザ端末(不図示)を有する。すなわち、画像処理システム100は、映像収集ドメイン、データ保存ドメイン、及び映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインは撮像モジュール110a〜110gを含み、データ保存ドメインはDB250とサーバ270を含み、映像生成ドメインは制御装置300及びエンドユーザ端末を含む。
(System configuration)
An image processing system for generating a virtual viewpoint image according to the present embodiment will be described with reference to a system configuration diagram in FIG. The
制御装置300は、画像処理システム100を構成するそれぞれのブロックに対して、ネットワークを通じて動作状態の管理や各種パラメータの設定といった様々な制御を行う。この制御装置300によって、上述のカメラ構成の決定、複数視点画像の取得、仮想視点の設定、仮想視点画像の生成といった一連の処理が実現される。制御装置300の詳細については、後述する。
The
撮像モジュール110a〜110gは、それぞれ1台ずつのカメラ112a〜112gを有する。以下では、撮像モジュール110a〜110gまでの7セットのシステムを区別せず、単に「撮像モジュール110」と記載する場合がある。各撮像モジュール110内の装置についても同様に、「カメラ112」、「カメラアダプタ120」と記載する場合がある。なお、撮像モジュール110の台数を7セットとしているが、あくまでも一例でありこれに限定されない。撮像モジュール110a〜110gはデイジーチェーンにより接続される。この接続形態により、撮影画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる効果がある。なお、接続形態は任意であり、例えば撮像モジュール110a〜110gがスイッチングハブ180にそれぞれ接続されて、スイッチングハブ180を経由して撮像モジュール110間のデータ送受信を行うスター型のネットワーク構成としてもよい。カメラアダプタ120は、他のカメラアダプタ120やサーバ270、制御装置300とデータ通信を行う。また、カメラ112が撮影した画像データ及び他のカメラアダプタ120から受取った画像データに対して、前景背景分離処理、前景三次元形状データ元情報生成処理、動的キャリブレーションなどの処理を行う。また、制御装置300からの制御信号に基づき、カメラ112を制御する。具体的には、撮像の開始及び停止、撮影パラメータ(画素数、色深度、フレームレート、及びホワイトバランス)の設定、カメラ112の状態情報(撮影中、停止中、同期中、及びエラーなど)の取得、画角や焦点距離の設定変更などを行う。撮像モジュール110a内のカメラ112aにて撮影された画像は、カメラアダプタ120aにおいて所定の画像処理が施された後、撮像モジュール110bのカメラアダプタ120bに伝送される。同様に撮像モジュール110bは、カメラ112bにて撮影した画像を、撮像モジュール110aから取得した画像と合わせて撮像モジュール110cに伝送する。このような動作を続けることにより、撮像モジュール110a〜110gで取得された撮像画像は、撮像モジュール110gからスイッチングハブ180に伝わり、その後、サーバ270へ伝送される。
Each of the
DB250は、制御装置300の指示に基づき、各撮像モジュール110で撮像された複数視点画像のデータを格納し、InfiniBand等の高速な通信によって、サーバ270との間で画像データ等を送受信する。また、撮像空間内にある施設や構造物の3Dデータを保持し、背景3Dデータライブラリとして機能する。施設や構造物の3Dデータは、撮影シーン(スポーツの種目やイベント)に応じて予め用意され、制御装置300の要求に応じてサーバ270へ送信される。
The
サーバ270は、撮像モジュール110gから取得した画像データを、カメラの識別番号やデータ種別、フレーム番号に応じてDB250に書き込む。そして、サーバ270は、ユーザ指定等に基づく仮想視点に関する情報(仮想視点情報)を制御装置300から受け取る。そして、受け取った仮想視点情報に従ってレンダリング処理を行って仮想視点画像を生成する。レンダリング処理によって得られた仮想視点からの見えを表すレンダリング画像(仮想視点画像)は、サーバ270から制御装置300に送信される。そして、ユーザは、自らが指定した仮想視点に応じた画像の閲覧ができる。
The
(制御装置の詳細)
図4(a)は、制御装置300のハードウェア構成の一例を示す図である。制御装置300は、CPU301、RAM302、HDD303、ネットワークI/F304、汎用I/F305、モニタ308、メインバス309を備える。ネットワークI/F304は、DB250、サーバ270、スイッチングハブ180をメインバス309に接続するインタフェースである。汎用I/F305は、マウスやキーボードなどの入力装置306、メモリカードなどの外部メモリ307をメインバス309に接続するインタフェースである。そして、図4(b)は、本実施形態に係る、制御装置300のソフトウェア構成を示す機能ブロック図であり、カメラ構成決定部401、カメラ制御部402、仮想視点設定部403、仮想視点画像生成部404で構成される。これら各部は、CPU301がHDD303に格納された所定のプログラムをRAM302に展開しこれを実行することで実現される。
(Details of control device)
FIG. 4A is a diagram illustrating an example of a hardware configuration of the
(システム制御の流れ)
続いて、本実施形態に係る、制御装置300による画像処理システムの制御の流れを説明する。図5は、本実施形態に係る、図3に示す画像処理システムにおける制御の流れを示すフローチャートである。以下、図4(b)に示す各部が行う処理の詳細について、図5のフローに沿って説明する。なお、以下の説明における記号「S」はステップを表す。
(System control flow)
Subsequently, a flow of control of the image processing system by the
S501では、カメラ構成決定部401が、設置された複数のカメラの位置及び姿勢(光軸方向)を示すカメラ情報を取得する。カメラ情報は、撮像空間の底面をx,y軸、高さをz軸とした三次元座標軸を定義し、各カメラの位置を座標空間での位置pi(pxi,pyi,pzi)、各カメラの姿勢をベクトルvi[vxi,vyi,vzi]で表現した情報である。ここで、iは設置された複数のカメラそれぞれの識別番号である。なお、カメラ情報の内容は上述のものに限られず、各カメラの座標位置と注視点の座標位置の情報でもよい。
In step S501, the camera
図6は、カメラ情報で特定される、各カメラの配置の一例を示す図である。いま、図3に示す7台のカメラ112a〜112gが、注視点601を向いて設置されている。この場合において、例えば、自カメラの対向する位置に他のカメラが存在するカメラ112e〜カメラ112gの画角を、それぞれの対向位置のカメラ112b〜112dの画角よりも狭くしたとする。この場合、カメラ112e〜112gの方向から見たときのオブジェクトのテクスチャは高解像度となる。しかし、その反対方向602から見たときのテクスチャは低解像度となり、オブジェクト全体の画質を向上させることができない。そこで、以降のS502〜S507において、画角は狭いがオブジェクトを高解像度で撮像可能なカメラを、撮像空間の全周に略均等な間隔で配置するようにしている。
FIG. 6 is a diagram illustrating an example of an arrangement of each camera specified by the camera information. Now, seven
S502では、カメラ構成決定部401が、S501で取得したカメラ情報を参照し、全設置カメラの中から、着目するカメラ(着目カメラ)を1つ決定する。通常は、上述のカメラを識別する番号iが若いものから順に、着目カメラに決定される。続くS503において、カメラ構成決定部401は、S501で取得したカメラ情報を用いて、着目カメラを基準として注視点を挟んだ対向する位置に、他のカメラが存在するかどうかの判定処理を行う。この判定処理は、例えば、以下の1)〜3)のような手順で行われる。
In S502, the camera
1)各カメラの視線方向を示すベクトルを二次元平面に投影し、かつ、正規化して得られた方向ベクトルvi[vpi,vqi]を、カメラ毎に算出する。ここで、iは各カメラを識別する番号であり、いまi=1〜7である。 1) A vector indicating the line-of-sight direction of each camera is projected on a two-dimensional plane, and a direction vector vi [vpi, vqi] obtained by normalization is calculated for each camera. Here, i is a number for identifying each camera, and i = 1 to 7 now.
2)着目カメラの方向ベクトルvo[vpo,vqo]と、着目カメラ以外のカメラの方向ベクトルvj[vpj,vqj]との内積vo・vjを算出する。ここで、oは着目カメラの識別番号を表し、jは着目カメラ以外のカメラの識別番号を表す。例えば、i=1のとき、o=1、j=2〜7である。 2) The inner product vo · vj of the direction vector vo [vpo, vqo] of the camera of interest and the direction vector vj [vpj, vqj] of the camera other than the camera of interest is calculated. Here, o represents the identification number of the camera of interest, and j represents the identification number of a camera other than the camera of interest. For example, when i = 1, o = 1 and j = 2-7.
3)上記2)で算出した内積vo・vojの値が負、かつ、内積vo・vjの符号を反転した値が1になるカメラがあれば、着目カメラの対向する位置に他のカメラが存在すると判断する。 3) If there is a camera in which the value of the inner product vo · voj calculated in the above 2) is negative and the value obtained by inverting the sign of the inner product vo · vj is 1, another camera exists at a position opposite to the camera of interest. I judge it.
こうして得られた判定処理の結果は、対向カメラ存否情報として着目カメラと紐付けて保持される。対向カメラ情報は、例えば第一の値と第二の値とで構成される。第一の値は、対向する位置に他のカメラが存在する場合を“1”、存在しない場合を“0”で示す1ビットの情報である。そして、第二の値は、第一の値が“1”の場合(対向する位置に他のカメラが存在する場合)における、当該他のカメラの識別番号の情報である。したがって、第一の値が“0”の場合、第二の値はブランク(0)である。なお、本処理の開始時点で、各カメラの対向カメラ存否情報は初期化され、第一の値は“0”、第二の値はブランクの状態になっているものとする。ここでは、二次元平面と内積を用いて、対向する位置関係にあるカメラの存否を判定したが、その判定方法はこれに限定されない。着目カメラと向かい合っている他のカメラの存否が判断できる手法であればどのような手法でもよい。この判定処理の結果、自カメラの対向する位置に他のカメラが存在する場合は、第一の値が“1”に、第2の値が当該他のカメラの識別番号にそれぞれ更新される。以降、対向カメラ存否情報における第一の値が“1”であるカメラを「対カメラ」と呼ぶこととする。 The result of the determination process obtained in this manner is held in association with the camera of interest as information on the presence or absence of the opposite camera. The on-coming camera information includes, for example, a first value and a second value. The first value is 1-bit information indicating “1” when another camera exists at the opposite position and “0” when there is no other camera. Then, the second value is information on the identification number of the other camera when the first value is “1” (when another camera is present at the opposing position). Therefore, if the first value is "0", the second value is blank (0). At the start of this processing, it is assumed that the opposite camera presence information of each camera is initialized, the first value is “0”, and the second value is blank. Here, the presence / absence of a camera in a facing positional relationship is determined using the two-dimensional plane and the inner product, but the determination method is not limited to this. Any method may be used as long as it can determine whether or not there is another camera facing the target camera. As a result of this determination processing, when another camera exists at a position facing the own camera, the first value is updated to “1” and the second value is updated to the identification number of the other camera. Hereinafter, a camera whose first value in the on-coming camera existence information is “1” is referred to as “a camera-to-camera”.
S504では、S501で取得したカメラ情報に係る、同じ注視点を持つすべてのカメラに対して、S503の判定処理が完了したか否かが判定される。未処理のカメラがあればS502に戻って次のカメラを着目カメラに設定して処理を続行する。一方、すべてのカメラについての判定処理が完了していれば、S505に進む。 In S504, it is determined whether or not the determination processing in S503 has been completed for all cameras having the same gazing point according to the camera information acquired in S501. If there is an unprocessed camera, the process returns to S502, sets the next camera as the camera of interest, and continues the processing. On the other hand, if the determination process has been completed for all cameras, the process proceeds to S505.
S505では、カメラ構成決定部401が、各カメラの対向カメラ存否情報を用いて、特性を変更するカメラを決定する際の基準となる角度(基準角度)を導出する。仮想視点を設定可能な方向に特に限定がない場合の基準角度は、360度から対向カメラ存否情報における第一の値の総数の半分の数を除算した値となる。上述の図6の例の場合は、6個のカメラ(112b、112c、112d、112e、112f及び112g)に紐付いた対向カメラ存否情報において第一の値が“1”になるので、360÷(6÷2))=120度が基準角度となる。つまり、図6のカメラ配置の場合、画角は狭いがオブジェクトを高解像度で撮像可能なカメラを、120度の均等角度で撮像空間の全周に配置することが、本ステップにおいて決まる。
In step S505, the camera
S506では、カメラ構成決定部401が、特性を変更するカメラを決定する際の基準となるカメラを、設置されている全カメラ112a〜112gのうち、対向カメラ存否情報における第一の値が“1”である対カメラの中から決定する。ここでは、対カメラの中からランダムに選択された1つのカメラを、基準となるカメラ(以下、「基準カメラ」と呼ぶ。)とする。基準カメラの決定はこれに限らず、例えば、対カメラ同士の間隔が最も狭いカメラを基準カメラとしてもよい。
In step S <b> 506, the camera
S507では、カメラ構成決定部401が、S501で取得したカメラ情報、S505で導出した基準角度、S506で決定した基準カメラに基づいて、特性を変更するカメラ(以下、「特性変更カメラ」と呼ぶ。)を決定する。この決定処理は、例えば、以下の1)〜3)のような手順で行われる。
In step S507, the camera
1)基準カメラbと、基準カメラから時計回りに隣り合う対カメラkとの角度θbkを算出する。角度θbkは、例えばカメラ間の方向ベクトルの内積により求めることができる。ここで、kは、隣り合う対カメラの識別番号を示す。 1) Calculate the angle θbk between the reference camera b and the camera k adjacent to the reference camera b in the clockwise direction. The angle θbk can be obtained, for example, by the inner product of the direction vectors between the cameras. Here, k indicates an identification number of an adjacent camera pair.
2)算出した角度θbkと基準角度とを比較する。比較の結果、角度θbkが基準角度以上である場合は、基準カメラと隣り合う対カメラkを特性変更カメラとして決定し、基準カメラを対カメラkと置き換える。一方、角度θbkが基準角度未満である場合は、対カメラkは特性変更カメラではないと判断する。 2) Compare the calculated angle θbk with the reference angle. As a result of the comparison, if the angle θbk is equal to or larger than the reference angle, the paired camera k adjacent to the reference camera is determined as the characteristic-changed camera, and the reference camera is replaced with the paired camera k. On the other hand, if the angle θbk is smaller than the reference angle, it is determined that the camera k is not a characteristic-change camera.
3)上記1)及び2)の処理を、対カメラの全ての組み合わせにおいて、どちらか一方のカメラが特性変更カメラとして決定されるまで順に時計回りに行う。
こうして、基準カメラを含むすべての対カメラについて、特性変更カメラとするか否かの判定がなされる。
3) The above processes 1) and 2) are sequentially performed clockwise in all combinations of cameras until one of the cameras is determined as the characteristic-changed camera.
In this way, it is determined whether or not all paired cameras including the reference camera are to be the characteristic-changed cameras.
ここで、図6の場合を例に、S502〜S507までの各処理によって、どのようにして特性変更カメラが決定されるのかを説明する。まず、7台のカメラ112a〜112gのカメラ情報を参照し、注視点601を挟んで互いに対向する位置にあるカメラの組合せの存否が判定される。判定の結果、カメラ112bと112e、カメラ112cと112f、カメラ112dと112g、の各組合せに属するカメラが「対カメラ」として決定される。次に、対カメラの中からランダムに基準カメラが選択され、例えばカメラ112dが基準カメラとして選択されたとする。ここで、基準カメラ112dから時計回りに隣り合う対カメラ112cは、基準カメラ112dとの角度が基準角度120度未満であるため、特性変更カメラではないと判断される。さらに、隣り合う対カメラ112bは、基準カメラ112dとの角度が基準角度120度以上となるため、特性変更カメラとして決定し、カメラ112bが新たな基準カメラとなる。新たな基準カメラ112bにおいては、隣り合う対カメラ112gが基準角度未満かつさらに隣り合う対カメラ112fが基準角度以上となるため、カメラ112fが特性変更カメラとして決定される。対カメラの全て組み合わせ(カメラ112bと112e、カメラ112cと112f、カメラ112dと112g)において、一方のカメラが特性変更カメラとして決定されるまでこの処理を繰り返した結果、各組合せにおいて、カメラ112b、カメラ112d、カメラ112fが、特性変更カメラとして決定されることになる。仮に、仮想視点を設定可能な範囲が限定される場合は、S505における基準角度の導出において、除算する値を360度ではなく、その限定された範囲の角度(例えば180度)とすればよい。この場合、S507で決定する基準カメラは、当該限定された範囲にあるカメラの中から選ぶことになる。このようにして、特性変更カメラとして決定されたカメラ112の識別番号の情報は、カメラ制御部402へ送られる。図5のフローの説明に戻る。
Here, how the characteristic-change camera is determined by the respective processes from S502 to S507 will be described, taking the case of FIG. 6 as an example. First, referring to the camera information of the seven
S508では、カメラ制御部402が、特性変更カメラとして決定されたカメラ112の特性を規定するパラメータを変更するための制御信号を、当該カメラ112を有する撮像モジュール110に送信する。本実施形態におけるパラメータは画角であり、より狭い画角への変更を指示する制御信号が送信されることになる。当該制御信号を受信した撮像モジュール110内のカメラアダプタ120は、カメラ112の画角を、より狭い画角に変更する設定を行う。こうして、特性変更カメラは、その対向する位置に存在するカメラの画角よりも狭い画角を有することになる。これにより、当該カメラの撮像画像におけるオブジェクトはより大きく写る(すなわち、オブジェクトのテクスチャ解像度がより高い撮像画像が得られる)ことになる。この際、画角をどの程度変更するかは、ユーザインタフェースを介したユーザ指示に従ってもよいし、事前に定められた規定値に変更してもよい。また、実施形態1で述べたとおり、変更の対象となるパラメータは画角に限られない。
In step S508, the
S509では、カメラ制御部402が、撮像モジュール110a〜110gに対して、撮像の開始を指示する制御信号を送信する。これにより各撮像モジュール110において撮像が開始され、各カメラ112による撮像画像が得られる。こうして、オブジェクトを複数の異なる視点から撮像した複数視点画像のデータが取得され、DB250に保存される。なお、撮像画像が動画像の場合は、フレーム毎に、以降の各処理が実行される。
In step S509, the
S510では、仮想視点画像生成部404が、サーバ270に対し、S509で取得した複数視点画像に含まれる各オブジェクトの三次元形状データの作成(形状推定)を指示する。この指示を受けて、サーバ270は、それぞれの撮像画像からオブジェクト領域を切り出し、各オブジェクトの三次元形状を推定する。複数視点画像に基づく三次元形状の推定には、例えば視体積公差法やステレオマッチング法といった公知の手法を用いればよい。
In S510, the virtual viewpoint
S511では、仮想視点設定部403が、仮想カメラの三次元位置及び姿勢(光軸方向)を表す仮想視点の設定を行う。この際、生成する仮想視点画像における画角及び解像度などを併せて設定するようにしてもよい。設定は、モニタ308に表示された仮想視点設定用のUI画面(不図示)を介して入力されたユーザ指示に基づいてなされる。或いは、予め定めた仮想視点の情報をHDD303等から読み込んで自動で設定されるようにしてもよい。
In step S511, the virtual
S512では、仮想視点画像生成部404が、S511で設定された仮想視点に従った仮想視点画像の生成をサーバ270に指示する。この指示を受けて、サーバ270は、S509で取得された複数視点画像とS510で作成等された三次元形状データとを用い、公知の視点依存レンダリングなどの手法で仮想視点画像を生成する。生成した仮想視点画像はモニタ308に出力され、ユーザは、自己が設定等した任意の視点からの仮想視点画像を閲覧することができる。
In S512, the virtual viewpoint
以上が、本実施形態に係る、システム制御の流れである。なお、図5のフローでは、対カメラの中から基準カメラを選択して、特性変更カメラを決定しているがこれに限定されない。例えば、対カメラ以外のカメラの中から基準カメラを選択し、上記手法に準じて特性を変更しないままにするカメラ(特性不変更カメラ)を決定していき、最終的に残った対カメラを特性変更カメラとしてもよい。また、図5のフローでは時計回りに判定を行ったが、反時計回りに行ってもよい。また、図5のフローでは基準角度を演算で求めたが、事前に定めた角度に従って特性変更カメラが均等に配置されるようにしてもよい。 The above is the flow of the system control according to the present embodiment. In the flow of FIG. 5, the reference camera is selected from the paired cameras, and the characteristic-change camera is determined. However, the present invention is not limited to this. For example, a reference camera is selected from cameras other than the paired camera, a camera whose characteristics are not changed (characteristic unchanged camera) is determined according to the above-described method, and the remaining paired cameras are finally determined as characteristics. It may be a change camera. Although the determination is made clockwise in the flow of FIG. 5, the determination may be made counterclockwise. In the flow of FIG. 5, the reference angle is calculated by calculation, but the characteristic-changed cameras may be arranged evenly according to a predetermined angle.
<変形例>
本実施形態では、制御装置300において、カメラ構成の決定、複数視点画像の取得、仮想視点の設定、仮想視点画像の生成といった一連のプロセスを制御するようにしていたがこれに限定されない。例えば、カメラ構成を決定するS508までの各処理を別個独立の情報処理装置(PC)で行って、カメラの設置・調整までを事前に行なっておき、制御装置300はS509以降の処理のみを行なう構成であってもよい。
<Modification>
In the present embodiment, the
また、本実施形態では、着目カメラに対して完全に対称関係にある位置に他のカメラが存在する場合のみ、着目カメラを対カメラとして決定したが、これに限定されない。すなわち、自カメラから見ておおよそ対称な位置関係にあると評価できる他のカメラがあれば、その着目カメラを対カメラとしてよい。その場合は、内積vo・vjの符号を反転した値が事前に定めた閾値よりも大きい他のカメラが存在することを条件に、着目カメラを対カメラとすればよい。ここで、完全に対称関係とは、注視点を通り、撮像フィールドに垂直な軸を中心として、互いに2回対称の位置になる関係のことをいう。 In the present embodiment, the camera of interest is determined as a paired camera only when another camera exists at a position completely symmetrical with respect to the camera of interest. However, the present invention is not limited to this. That is, if there is another camera that can be evaluated as having an approximately symmetrical positional relationship when viewed from the own camera, the camera of interest may be set to the opposite camera. In that case, the camera of interest may be set to the paired camera on the condition that there is another camera in which the value obtained by inverting the sign of the inner product vo · vj is larger than a predetermined threshold. Here, the completely symmetrical relationship refers to a relationship in which positions are symmetrical twice with respect to an axis passing through the point of gaze and perpendicular to the imaging field.
また、本実施形態では、対カメラか否かの判定を、二次元の方向ベクトルに基づき行ったがこれに限定されない。例えば、高さ方向を含む三次元的な位置関係に基づいて判定を行なって、高さが異なる場合は対カメラではないと判断してもよい。例えば、スタジアムの1階と2階のように設置フロアが異なる場合、1階のカメラと2階のカメラとの間では、二次元の方向ベクトルに基づけば対カメラと判断され得るが、高さが大きく異なるので対カメラとは判断しない。 In the present embodiment, the determination as to whether or not the camera is a camera is made based on the two-dimensional direction vector, but is not limited to this. For example, the determination may be made based on a three-dimensional positional relationship including the height direction, and if the heights are different, it may be determined that the camera is not a camera. For example, if the installation floors are different, such as the first floor and the second floor of a stadium, the camera on the first floor and the camera on the second floor can be determined as a paired camera based on the two-dimensional direction vector, Is so different that the camera is not determined.
また、本実施形態では、基準カメラを決定するのは1回だけであったが、これに限定されない。対向カメラ存否情報における第一の値が“1”であるカメラを順番に基準カメラに決定し、S508までの処理を繰り返し行って、特性変更カメラの配置が、仮想視点の設定可能な範囲内で最も均等に近くなるカメラ構成を採用するようにしてもよい。 Further, in the present embodiment, the reference camera is determined only once, but is not limited to this. The camera whose first value in the oncoming camera existence information is “1” is sequentially determined as the reference camera, and the processing up to S508 is repeatedly performed so that the arrangement of the characteristic-changed camera is within the settable range of the virtual viewpoint. A camera configuration that provides the closest uniformity may be adopted.
実施形態2では、設置された全てのカメラのうち、共通の注視点を挟んで対向する位置に他のカメラが存在する全てのカメラを特性変更カメラの候補とし、対の関係にあるカメラの一方を特性変更カメラに決定していた。次に、設置されている複数のカメラのうち、予め定めた台数だけ特性変更カメラとして決定する態様を、実施形態3として説明する。この態様は、設置されている複数のカメラの中に、共通の注視点を挟んでおおよそ対向しているものの、双方のカメラが完全な対称位置にはないようなケースにおいて有効である。なお、実施形態2と共通する内容については説明を省略ないしは簡略化し、以下では差異点を中心に説明を行うものとする。 In the second embodiment, among all the installed cameras, all the cameras in which another camera exists at a position opposite to the common gazing point are set as candidates of the characteristic changing camera, and one of the paired cameras is Was determined to be a characteristic changing camera. Next, an embodiment in which a predetermined number of cameras installed among a plurality of installed cameras are determined as characteristic-change cameras will be described as a third embodiment. This aspect is effective in a case where, although a plurality of cameras installed are roughly opposed to each other with a common gazing point therebetween, both cameras are not completely symmetrical. The description of the contents common to the second embodiment will be omitted or simplified, and the following description will focus on the differences.
本実施形態では、対カメラの対称度合いと基線同士の近接度合いとに基づいて、特性変更カメラを決定する。その理由をまず説明する。 In the present embodiment, the characteristic-change camera is determined based on the degree of symmetry of the camera and the degree of proximity between the baselines. The reason will be described first.
各カメラから延びる基線が撮像空間の全周に亘って均等に存在せず、カメラ同士の間隔に大きな空きがあるようなケースでは、そのような空きがないシステムに比べて十分なシルエット画像が得られない。この場合、撮像シーン内のオブジェクトの三次元形状データの精度が低下するため、生成される仮想視点画像も低画質なものになる。したがって、設置される各カメラの間隔はできるだけ密で、かつ、均等であることが望ましい。また、前述のとおり、注視点を挟んで互いに対向する位置のカメラの撮像画像に基づく2つのシルエット画像は左右が反転しているに過ぎない。したがって、注視点を挟んで対向するようなカメラ配置を含んだシステムとそうでないシステムとで、各撮像画像のシルエット画像から得られる情報に大きな違いはなく、生成される仮想視点画像の画質にも大きな差は生じない。 In cases where the baseline extending from each camera does not exist evenly over the entire circumference of the imaging space, and there is a large gap between the cameras, a sufficient silhouette image can be obtained compared to a system without such a gap. I can't. In this case, since the accuracy of the three-dimensional shape data of the object in the captured scene is reduced, the generated virtual viewpoint image also has low image quality. Therefore, it is desirable that the intervals between the cameras to be installed be as close and uniform as possible. Further, as described above, the two silhouette images based on the captured images of the cameras at positions opposing each other with the point of regard interposed therebetween are merely left and right inverted. Therefore, there is no significant difference in the information obtained from the silhouette image of each captured image between the system including the camera arrangement facing each other with the gazing point in between, and the image quality of the generated virtual viewpoint image. There is no significant difference.
これらの事実を総合すると、自カメラと対向する位置に他のカメラが存在し、かつ、自カメラの近傍に他のカメラが存在するカメラであれば、システムを構成するカメラ群から除外しても、生成される仮想視点画像の画質はそれほど低下しないと考えられる。そこで本実施形態では、対向カメラ対称度が高く、かつ、基線近接度が高いカメラを、特性変更カメラに決定するようにしている。 Summarizing these facts, if there is another camera at the position facing the own camera and there is another camera near the own camera, even if it is excluded from the camera group constituting the system, It is considered that the image quality of the generated virtual viewpoint image does not decrease so much. Thus, in the present embodiment, a camera having a high degree of symmetry of the opposing camera and a high degree of base line proximity is determined as the characteristic-changed camera.
図7(a)及び(b)を参照して、本実施形態の概要を説明する。図7の(a)及び(b)は、本実施形態に係るカメラの配置の一例を示す図であり、いずれも5台のカメラ112a〜112eが撮像空間を囲むように設置されている。このようなカメラ配置において、1台のカメラの特性を変更するケースを想定する。
An outline of the present embodiment will be described with reference to FIGS. FIGS. 7A and 7B are diagrams illustrating an example of the arrangement of cameras according to the present embodiment, in which five
図7(a)は特性変更カメラとしてカメラ112aを選択した場合、図7(b)は特性変更カメラとしてカメラ112dを選択した場合をそれぞれ示している。図7(a)では、カメラ112dから延びる基線701は、注視点700を挟んだ向こう側において、カメラ112cから延びる基線702及びカメラ112bから延びる基線703と隣り合っており、基線703に比べて基線702の方が、明らかに近い位置にある。つまり、基線701と基線702とのなす角度α1の方が、基線701と基線703とのなす角度α2よりもかなり小さい。これに対して、図7(b)では、カメラ112aから延びる基線704は、カメラ112cから延びる基線702とカメラ112bから延びる基線703と隣り合っており、かつ、基線702と基線703との略中間の位置にある。つまり、基線704と基線702とのなす角度β1と、基線704と基線703とのなす角度β2とはそれほど違わない。
FIG. 7A shows the case where the
視体積公差法などの手法によってオブジェクトの三次元形状データを生成する場合、その精度を向上するためには、当該オブジェクトをあらゆる方向から撮像し、そのシルエット画像を取得する必要がある。図7(a)の状況において、カメラ112aの特性を変更した場合、基線701と基線703との間の領域におけるシルエット画像の取得が困難になる結果、三次元形状データの精度が悪くなる。すると、そのような三次元形状データに基づいて生成した仮想視点画像の画質も低下することになる。これに対して、図7(b)では、基線同士の間隔がおおよそ等間隔であるため、異なる方向から偏りなくシルエット画像を取得することができる。そのため、カメラ112dの特性を変更したとしても、変更しない場合と比べて仮想視点画像の画質は大きく劣化しない。そこで、図7(b)に示すように、シルエット画像の取得に影響がより少ない位置のカメラを特性変更カメラとして決定するようにする。そのために、注視点を挟んだ向こう側での基線の近接度を新たな判断指標として用いる。なお、設置されているカメラ台数が全5台で、そのうちの1台を特性変更カメラとする場合を例に説明したが、設置するカメラの台数や特性を変更するカメラの台数は任意であることはいうまでもない。
When generating three-dimensional shape data of an object by a method such as the visual volume tolerance method, it is necessary to image the object from all directions and acquire a silhouette image of the object in order to improve the accuracy. In the situation of FIG. 7A, when the characteristics of the
(システム制御の流れ)
続いて、本実施形態に係る画像処理システムの制御の流れを、図8のフローチャートに沿って説明する。図8のフローは、実施形態2の図5のフローに対応しており、制御装置300のハードウェア構成やソフトウェア構成も実施形態2で説明したとおりである(図4(a)及び(b)を参照)。
(System control flow)
Next, the control flow of the image processing system according to the present embodiment will be described with reference to the flowchart of FIG. The flow of FIG. 8 corresponds to the flow of FIG. 5 of the second embodiment, and the hardware configuration and the software configuration of the
S801では、設置された複数のカメラの位置及び姿勢(光軸方向)を示すカメラ情報に加え、全設置カメラのうちその特性を変更するカメラの台数の情報が取得される。続くS802では、図5のフローのS502と同様、S801で取得したカメラ情報を参照し、設置されている全カメラの中から着目カメラが1つ決定される。 In step S801, in addition to camera information indicating the positions and orientations (optical axis directions) of a plurality of installed cameras, information on the number of cameras whose characteristics are to be changed among all the installed cameras is acquired. In subsequent S802, as in S502 of the flow in FIG. 5, one camera of interest is determined from all the installed cameras by referring to the camera information acquired in S801.
S803では、カメラ構成決定部401が、S802で決定した着目カメラと当該着目カメラ以外のカメラのうち最も対向している位置にあるカメラとの対称度合いを、S801で取得したカメラ情報を用いて導出する。この導出処理は、例えば、以下の1)〜3)のような手順で行われる。
In step S803, the camera
1)各カメラの視線方向を示すベクトルを二次元平面に投影し、かつ、正規化して得られた方向ベクトルvi[vpi,vqi]を、カメラ毎に算出する。ここで、iは各カメラの識別番号であり、いまi=1〜5である。 1) A vector indicating the line-of-sight direction of each camera is projected on a two-dimensional plane, and a direction vector vi [vpi, vqi] obtained by normalization is calculated for each camera. Here, i is the identification number of each camera, and i = 1 to 5 now.
2)着目カメラの方向ベクトルvo[vpo,vqo]と、着目カメラ以外のカメラの方向ベクトルvj[vpj,vqj]との内積vo・vjを算出する。ここで、oは着目カメラの識別番号を表し、jは着目カメラ以外のカメラの識別番号を表す。例えば、i=1のとき、o=1、j=2〜5である。 2) The inner product vo · vj of the direction vector vo [vpo, vqo] of the camera of interest and the direction vector vj [vpj, vqj] of the camera other than the camera of interest is calculated. Here, o represents the identification number of the camera of interest, and j represents the identification number of a camera other than the camera of interest. For example, when i = 1, o = 1 and j = 2-5.
3)上記2)で算出した内積vo・vjの値が負であり、かつ、内積vo・vjの符号を反転した値が最大となるカメラを求め、当該カメラのvo・vjの符号を反転した値を、着目カメラに関する対向カメラの対称度合いを表す指標とする。 3) A camera is obtained in which the value of the inner product vo · vj calculated in the above 2) is negative and the value obtained by inverting the sign of the inner product vo · vj is the maximum, and the sign of vo · vj of the camera is inverted. The value is used as an index indicating the degree of symmetry of the oncoming camera with respect to the camera of interest.
こうして求めた指標値が、対向カメラ対称度情報として着目カメラと紐付けて保持される。自カメラと注視点を挟んで対向している他のカメラの位置がより対称位置に近いときほど指標値は大きくなり(完全な対称位置のときに最大値をとる)、より高い対称度合いを表すことになる。 The index value thus obtained is held in association with the camera of interest as the opposite camera symmetry information. The index value increases as the position of the other camera facing the own camera with the point of gazing between them is closer to the symmetric position (the maximum value is obtained when the camera is completely symmetric), indicating a higher degree of symmetry. Will be.
S804では、カメラ構成決定部401が、S802で決定した着目カメラから延びる基線に、注視点を挟んだ向こう側で隣り合う他のカメラから延びる基線が、どの程度近接しているかを、S801で取得したカメラ情報を用いて導出する。この導出処理は、例えば、以下の1)〜4)のような手順で行われる。
In step S <b> 804, the camera
1)各カメラの視線方向を示すベクトルを二次元平面に投影し、かつ、正規化して得られた方向ベクトルvi[vpi,vqi]を、カメラ毎に算出する。ここでも、iは各カメラの識別番号であり、いまi=1〜5である。 1) A vector indicating the line-of-sight direction of each camera is projected on a two-dimensional plane, and a direction vector vi [vpi, vqi] obtained by normalization is calculated for each camera. Here, i is the identification number of each camera, and i = 1 to 5 now.
2)着目カメラを、注視点を挟んだその対称位置から見たときの逆方向ベクトルvo’[v’po,v’qo]を、着目カメラの方向ベクトルに基づき算出する。ここで、oは着目カメラの識別番号である。 2) The backward vector vo '[v'po, v'qo] when the target camera is viewed from its symmetric position with respect to the point of regard is calculated based on the direction vector of the target camera. Here, o is the identification number of the camera of interest.
3)逆方向ベクトルと着目カメラ以外のカメラの方向ベクトルとの内積vo’・vi及び、逆方向ベクトルと着目カメラ以外のカメラの方向ベクトルとの外積vo’×viを、カメラ毎に算出する。 3) The inner product vo '· vi of the backward vector and the direction vector of the camera other than the camera of interest and the outer product vo' × vi of the direction vector of the camera other than the camera of interest and the vector of the camera other than the camera of interest are calculated for each camera.
4)外積vo’×viの値が正であるカメラにおいて内積vo’・viが最大となる正方向の値と、外積vo’×viの値が負であるカメラにおいて内積vo’・viが最大となる負方向の値とを比較する。そして、小さい方の値を、着目カメラに関する基線の近接度合いを表す指標とする。こうして求めた指標値が、基線近接度情報として着目カメラと紐付けて保持される。基線近接度は、自カメラから延びる基線を基準として、隣り合う基線との間隔が狭いものほど指標値は小さくなり、より高い近接度合いを示すことになる。 4) A positive value in which the inner product vo '· vi is the largest in a camera having a positive outer product vo' × vi value, and a largest inner product vo '· vi in a camera in which the outer product vo' × vi value is negative. Is compared with the negative value. Then, the smaller value is used as an index indicating the degree of proximity of the baseline to the camera of interest. The index value thus obtained is held in association with the camera of interest as baseline proximity information. With respect to the base line proximity based on the base line extending from the own camera, the smaller the distance between adjacent base lines, the smaller the index value and the higher the closeness.
S805では、S801で取得したカメラ情報に係るすべてのカメラ(全設置カメラ)に対して、S803及びS804の導出処理が完了したか否かが判定される。未処理のカメラがあればS802に戻って次のカメラを着目カメラに設定して処理を続行する。一方、すべてのカメラについて2種類の導出処理が完了していれば、S806に進む。 In S805, it is determined whether the derivation processing in S803 and S804 has been completed for all cameras (all installed cameras) related to the camera information acquired in S801. If there is an unprocessed camera, the process returns to step S802 to set the next camera as the camera of interest and continues the processing. On the other hand, if the two types of derivation processes have been completed for all the cameras, the process proceeds to S806.
S806では、カメラ構成決定部401が、S801で取得した特性変更カメラの台数情報を用いて、特性変更カメラを決定する際の基準角度を導出する。仮想視点を設定可能な方向に特に限定がない場合の基準角度は、360度から特性変更カメラの台数を除算した値となる。上述の図7の例の場合は、特性を変更するカメラの台数は1台なので、360÷1=360度となる。
In step S806, the camera
S807では、カメラ構成決定部401が、特性変更カメラを決定する際の基準カメラを、全設置カメラ(ここでは112a〜112e)の中から決定する。具体的には、S803で導出した各カメラの対向カメラ対称度情報を参照し、対称度合いが最も高いカメラを基準カメラに決定する。なお、最も高い対称度を持つカメラが複数ある場合は、その中からランダムに決定すればよい。
In step S807, the camera
S808では、カメラ構成決定部401が、S803で導出した対向カメラ対称度情報と、S804で導出した基線近接度情報とに基づき、特性変更カメラを決定する。この決定処理は、例えば、以下の1)〜3)のような手順で行われる。
In S808, the camera
1)基準カメラの位置を確定し、当該基準カメラから時計回りに基準角度離れた位置の近くに存在する2台のカメラを検出する。なお、このときの基準カメラは、最初のループではS807で決定した基準カメラ、2回目以降のループではS810で更新した基準カメラである。また、上述の図7の例のように基準角度が360度の場合など一定条件下では、基準カメラ自身を検出対象の2台のカメラに含める。この一定条件は、設置カメラの台数やカメラ同士の間隔、基準角度などによって決まる。 1) The position of the reference camera is determined, and two cameras existing near a position separated by a reference angle clockwise from the reference camera are detected. The reference camera at this time is the reference camera determined in S807 in the first loop, and the reference camera updated in S810 in the second and subsequent loops. Further, under certain conditions such as when the reference angle is 360 degrees as in the example of FIG. 7, the reference camera itself is included in the two cameras to be detected. The fixed condition is determined by the number of installed cameras, the interval between cameras, a reference angle, and the like.
2)上記1)で検出した2台のカメラについて、どちらを特性変更カメラとするかを決めるための評価値を、以下の式(1)を用いてそれぞれ求める。
評価値 = 対向カメラ対称度×(1/基線近接度) ・・・式(1)
2) With respect to the two cameras detected in the above 1), an evaluation value for determining which of the two cameras is to be the characteristic-changed camera is obtained by using the following equation (1).
Evaluation value = Symmetry of facing camera × (1 / Baseline proximity) Expression (1)
3)上記2)で求めた2台のカメラについての評価値を比較し、評価値が大きい方のカメラを特性変更カメラに決定(評価値が小さい方のカメラは特性を変更しないカメラに決定)する。こうして、基準カメラに対応する1台の特性変更カメラが決定される。 3) The evaluation values of the two cameras obtained in the above 2) are compared, and the camera with the larger evaluation value is determined as the characteristic-changed camera (the camera with the smaller evaluation value is determined as the camera whose characteristics are not changed). I do. In this way, one characteristic-change camera corresponding to the reference camera is determined.
S809では、S801で取得した台数分の特性変更カメラが決定されたか否かが判定される。未決定分があればS810に進む。一方、全台数の特性変更カメラが決定していれば、S811に進む。 In step S809, it is determined whether or not the number of characteristic-change cameras corresponding to the number acquired in step S801 has been determined. If there is an undetermined portion, the process proceeds to S810. On the other hand, if all the characteristic-change cameras have been determined, the process advances to step S811.
S810では、基準カメラが更新される。具体的には、S808で評価値が大きいと判断された方のカメラ(特性変更カメラとして決定されたカメラ)を、新たな基準カメラに設定する。更新を終えるとS808に戻り、更新後の新たな基準カメラに基づいて次の特性変更カメラを決定する処理が続行される。 In S810, the reference camera is updated. Specifically, the camera determined to have a larger evaluation value in S808 (the camera determined as the characteristic-change camera) is set as a new reference camera. Upon completion of the update, the process returns to S808, and the process of determining the next characteristic-change camera based on the updated new reference camera is continued.
S811〜S815は、図5のフローのS508〜S512にそれぞれ対応し、特に異なるところはないので説明を省く。 Steps S811 to S815 correspond to steps S508 to S512 in the flow of FIG. 5, respectively, and there is no particular difference.
以上が、本実施形態に係る、画像処理システムの制御の流れである。これにより、ユーザが指定する台数だけカメラの特性を変更したカメラ群で構成されるシステムを構築できる。 The above is the control flow of the image processing system according to the present embodiment. As a result, it is possible to construct a system including a camera group in which the camera characteristics are changed by the number specified by the user.
<変形例>
本実施形態では、対向カメラ対称度と基線近接度を各カメラについて1度だけ導出しているが、これに限定されない。特性変更カメラを決定する度に、当該決定されたカメラを除外した残りのカメラについて対向カメラ対称度と基線近接度とを導出し直した上で、次の特性変更カメラの決定を行ってもよい。
<Modification>
In the present embodiment, the degree of symmetry of the opposite camera and the degree of base line proximity are derived only once for each camera, but the present invention is not limited to this. Each time the characteristic-changed camera is determined, the next characteristic-changed camera may be determined after re-deriving the opposite camera symmetry and the baseline proximity for the remaining cameras excluding the determined camera. .
また、特性変更カメラを決定する際に、基準カメラから基準角度離れた位置に近い2台のカメラを比較したが、当該位置の近傍にある3台以上のカメラを比較して、特性変更カメラを決定してもよい。 Further, when determining the characteristic-change camera, two cameras close to the position distant from the reference camera by the reference angle were compared, but three or more cameras near the position were compared, and the characteristic-change camera was compared. You may decide.
本実施形態によれば、設置されたカメラの中に、完全に対称な位置関係にあるカメラの組合せが存在しない場合においても、仮想視点画像の生成における視点の自由度と画質向上とを両立可能なシステムを構築することができる。 According to the present embodiment, even when there is no combination of cameras having a completely symmetrical positional relationship among the installed cameras, it is possible to achieve both the degree of freedom of the viewpoint and the improvement of the image quality in generating the virtual viewpoint image. System can be constructed.
<その他の実施例>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Examples>
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. It can also be realized by the following processing. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.
Claims (19)
所定の位置を異なる方向から撮像するように設置された複数のカメラを有し、
前記複数のカメラには、第一のカメラと、前記所定の位置を通り撮像フィールドに対して垂直な軸を中心とする、前記第一のカメラの2回対称の位置又は前記2回対称の位置に前記複数のカメラの中で最も近い位置に設置された第二のカメラ、とからなる少なくとも1組のカメラが含まれ、
前記第一のカメラと前記第二のカメラとでは、その特性を規定するパラメータのうち撮像画像におけるオブジェクトのテクスチャ解像度及びカメラの撮影範囲の少なくとも一方に影響するパラメータが異なる
ことを特徴とするシステム。 A system for acquiring a plurality of viewpoint images for generating a virtual viewpoint image,
Having a plurality of cameras installed to image a predetermined position from different directions,
The plurality of cameras include a first camera and a two-fold symmetrical position or the two-fold symmetrical position of the first camera about an axis passing through the predetermined position and perpendicular to an imaging field. A second camera located closest to the plurality of cameras, and at least one set of cameras,
A system wherein the first camera and the second camera are different in parameters that affect at least one of a texture resolution of an object in a captured image and a photographing range of the camera among parameters defining characteristics of the first camera and the second camera.
前記所定の位置の位置情報を取得する第2の取得手段と、
前記第1の取得手段により取得されたカメラ情報と、前記第2の取得手段により取得された前記所定の位置の位置情報に基づき、前記複数のカメラのうち前記所定の位置を通り撮像フィールドに対して垂直な軸を中心とする2回対称の位置又は前記2回対称の位置に最も近い位置に設置された、第一のカメラと第二のカメラとからなる少なくとも1組のカメラにおいて、前記第一のカメラと前記第二のカメラとでは、カメラの特性を規定するパラメータのうち撮像画像におけるオブジェクトのテクスチャ解像度及びカメラの撮影範囲の少なくとも一方に影響するパラメータが異なるように、カメラ構成を決定する決定手段と、
を備えることを特徴とする装置。 First acquisition means for acquiring camera information indicating positions and orientations of a plurality of cameras installed so as to image a predetermined position in an imaging space from different directions;
Second acquisition means for acquiring position information of the predetermined position;
Based on the camera information obtained by the first obtaining unit and the position information of the predetermined position obtained by the second obtaining unit, the camera field passes through the predetermined position among the plurality of cameras and captures an image. At least one set of cameras, consisting of a first camera and a second camera, installed at a position symmetrical twice or about the position symmetrical about the vertical axis. The camera configuration is determined between the first camera and the second camera such that parameters that affect at least one of the texture resolution of the object in the captured image and the shooting range of the camera among the parameters defining the characteristics of the camera are different. Determining means;
An apparatus comprising:
前記複数のカメラのうち、前記異なるパラメータを持たせるカメラの台数の情報を取得し、
前記複数のカメラの各カメラについて、自カメラと他のカメラとの対称度合いを導出し、
導出した前記対称度合いに基づいて、前記1組のカメラのうちパラメータを異ならせるカメラを決定する
ことを特徴とする請求項8又は9に記載の装置。 The determining means comprises:
Of the plurality of cameras, obtain information on the number of cameras having the different parameters,
For each of the plurality of cameras, derive a degree of symmetry between the own camera and another camera,
The apparatus according to claim 8 or 9, wherein a camera having a different parameter among the one set of cameras is determined based on the derived degree of symmetry.
前記複数のカメラのうち、前記異なるパラメータを持たせるカメラの台数の情報を取得し、
前記複数のカメラの各カメラについて、自カメラと他のカメラとの対称度合いを導出し、
前記複数の各カメラについて、自カメラから延びる前記所定の位置を通る基線と、前記所定の位置を挟んで対向する他のカメラから延びる前記所定の位置を通る基線との近接度合いを導出し、
導出した前記対称度合いと前記近接度合いとに基づいて、前記1組のカメラのうちパラメータを異ならせるカメラを決定する
ことを特徴とする請求項8又は9に記載の装置。 The determining means comprises:
Of the plurality of cameras, obtain information on the number of cameras having the different parameters,
For each of the plurality of cameras, derive a degree of symmetry between the own camera and another camera,
For each of the plurality of cameras, a base line passing through the predetermined position extending from the own camera and a proximity degree between the base line passing through the predetermined position extending from another camera facing the predetermined position are derived.
The apparatus according to claim 8, wherein a camera having a different parameter among the one set of cameras is determined based on the derived degree of symmetry and degree of proximity.
前記対称度合いに基づき、前記複数のカメラの中から基準カメラを決定し、
決定した前記基準カメラの位置から所定の基準角度離れた位置の近くに存在する少なくとも2台のカメラを検出し、
検出した少なくとも2台のカメラから、前記パラメータを異ならせるカメラを前記近接度合いに基づき決定する
ことを特徴とする請求項12又は13に記載の装置。 The determining means comprises:
Based on the degree of symmetry, determine a reference camera from among the plurality of cameras,
Detecting at least two cameras existing near a position separated by a predetermined reference angle from the determined position of the reference camera,
14. The apparatus according to claim 12, wherein a camera having a different parameter is determined based on the degree of proximity from at least two detected cameras. 15.
前記複数のカメラのうち前記基準カメラとなり得るすべてのカメラを、前記基準カメラとして順に決定し、
前記パラメータを異ならせるカメラの配置が、仮想視点の設定可能な範囲内で最も均等に近くなるように、カメラ構成を決定する
ことを特徴とする請求項14に記載の装置。 The determining means comprises:
All the cameras that can be the reference camera among the plurality of cameras are sequentially determined as the reference camera,
The apparatus according to claim 14, wherein the camera configuration is determined such that the arrangement of the cameras for which the parameters are different is closest to the most uniform within a settable range of the virtual viewpoint.
前記複数のカメラに対し撮像を指示して、複数視点画像を取得し、
取得した前記複数視点画像に基づき、オブジェクトの形状推定を行って三次元形状データを生成し、
前記複数視点画像と前記三次元形状データに基づいて、仮想視点画像を生成する
ことを特徴とする請求項16に記載の装置。 The control means further comprises:
Instructing the plurality of cameras to capture images to obtain a plurality of viewpoint images,
Based on the acquired multi-viewpoint image, perform three-dimensional shape data by performing shape estimation of the object,
The apparatus according to claim 16, wherein a virtual viewpoint image is generated based on the plurality of viewpoint images and the three-dimensional shape data.
前記システムには、
所定の位置を異なる方向から撮像するように設置された複数のカメラを有し、
前記複数のカメラには、第一のカメラと、前記所定の位置を通り撮像フィールドに対して垂直な軸を中心とする、前記第一のカメラの2回対称の位置又は前記2回対称の位置に前記複数のカメラの中で最も近い位置に設置された第二のカメラ、とからなる少なくとも1組のカメラが含まれ、
前記方法は、
前記複数のカメラの位置及び姿勢を示すカメラ情報を取得するステップと、
前記複数のカメラのうち前記第一のカメラと前記第二のカメラとを決定するステップと、
カメラの特性を規定するパラメータのうち撮像画像におけるオブジェクトのテクスチャ解像度及びカメラの撮影範囲の少なくとも一方に影響するパラメータについて、前記第一のカメラと前記第二のカメラとで異なるパラメータを設定するステップと、
を含む
ことを特徴とする方法。 A method for determining a camera configuration in a system that acquires a plurality of viewpoint images for generating a virtual viewpoint image using a plurality of cameras,
The system includes:
Having a plurality of cameras installed to image a predetermined position from different directions,
The plurality of cameras include a first camera and a two-fold symmetrical position or the two-fold symmetrical position of the first camera about an axis passing through the predetermined position and perpendicular to an imaging field. A second camera located closest to the plurality of cameras, and at least one set of cameras,
The method comprises:
Obtaining camera information indicating the position and orientation of the plurality of cameras;
Determining the first camera and the second camera among the plurality of cameras;
Setting parameters that differ between the first camera and the second camera, for parameters that affect at least one of the texture resolution of the object in the captured image and the shooting range of the camera among the parameters that define the characteristics of the camera. ,
A method comprising:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018121985A JP7154841B2 (en) | 2018-06-27 | 2018-06-27 | IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM |
PCT/JP2019/024218 WO2020004162A1 (en) | 2018-06-27 | 2019-06-19 | Imaging system, arrangement determination device, arrangement determination method, and program |
US17/126,979 US11297301B2 (en) | 2018-06-27 | 2020-12-18 | Image capturing system, arrangement determination apparatus, arrangement determination method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018121985A JP7154841B2 (en) | 2018-06-27 | 2018-06-27 | IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020005089A true JP2020005089A (en) | 2020-01-09 |
JP2020005089A5 JP2020005089A5 (en) | 2021-08-05 |
JP7154841B2 JP7154841B2 (en) | 2022-10-18 |
Family
ID=69100564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018121985A Active JP7154841B2 (en) | 2018-06-27 | 2018-06-27 | IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7154841B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023032468A1 (en) * | 2021-08-31 | 2023-03-09 | 富士フイルム株式会社 | Imaging control device, imaging control method, and imaging control program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010154052A (en) * | 2008-12-24 | 2010-07-08 | Hitachi Ltd | System for controlling a plurality of cameras |
US20160205341A1 (en) * | 2013-08-20 | 2016-07-14 | Smarter Tv Ltd. | System and method for real-time processing of ultra-high resolution digital video |
JP2018056971A (en) * | 2016-09-30 | 2018-04-05 | キヤノン株式会社 | Imaging system, image processing device, image processing method, and program |
WO2018088037A1 (en) * | 2016-11-14 | 2018-05-17 | ソニー株式会社 | Control device for mobile imaging device, control method for mobile imaging device and program |
JP2018092491A (en) * | 2016-12-06 | 2018-06-14 | キヤノン株式会社 | Information processing apparatus, control method therefor, and program |
-
2018
- 2018-06-27 JP JP2018121985A patent/JP7154841B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010154052A (en) * | 2008-12-24 | 2010-07-08 | Hitachi Ltd | System for controlling a plurality of cameras |
US20160205341A1 (en) * | 2013-08-20 | 2016-07-14 | Smarter Tv Ltd. | System and method for real-time processing of ultra-high resolution digital video |
JP2018056971A (en) * | 2016-09-30 | 2018-04-05 | キヤノン株式会社 | Imaging system, image processing device, image processing method, and program |
WO2018088037A1 (en) * | 2016-11-14 | 2018-05-17 | ソニー株式会社 | Control device for mobile imaging device, control method for mobile imaging device and program |
JP2018092491A (en) * | 2016-12-06 | 2018-06-14 | キヤノン株式会社 | Information processing apparatus, control method therefor, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023032468A1 (en) * | 2021-08-31 | 2023-03-09 | 富士フイルム株式会社 | Imaging control device, imaging control method, and imaging control program |
Also Published As
Publication number | Publication date |
---|---|
JP7154841B2 (en) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7051457B2 (en) | Image processing equipment, image processing methods, and programs | |
US20200265633A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US10970915B2 (en) | Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium | |
US9600714B2 (en) | Apparatus and method for calculating three dimensional (3D) positions of feature points | |
US10789765B2 (en) | Three-dimensional reconstruction method | |
JP2019075082A (en) | Video processing method and device using depth value estimation | |
KR20150050172A (en) | Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object | |
KR20160094190A (en) | Apparatus and method for tracking an eye-gaze | |
JP2018106496A (en) | Image processing apparatus, image processing method, and program | |
US11297301B2 (en) | Image capturing system, arrangement determination apparatus, arrangement determination method, and storage medium | |
JP2019083402A (en) | Image processing apparatus, image processing system, image processing method, and program | |
CN110956695B (en) | Information processing apparatus, information processing method, and storage medium | |
JP2004235934A (en) | Calibration processor, calibration processing method, and computer program | |
JP2018113683A (en) | Image processing apparatus, image processing method, and program | |
US20180367709A1 (en) | Image processing apparatus, object shape estimation method, and storage medium | |
TWI528783B (en) | Methods and systems for generating depth images and related computer products | |
US11468258B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP7154841B2 (en) | IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM | |
JP6602412B2 (en) | Information processing apparatus and method, information processing system, and program. | |
KR102298047B1 (en) | Method of recording digital contents and generating 3D images and apparatus using the same | |
JP2019067419A (en) | Image processing device, image processing method, and program | |
US20220408069A1 (en) | Information processing apparatus, information processing method, and storage medium | |
KR101960018B1 (en) | Method and Apparatus for determining Front Sensor Geometry | |
WO2023199583A1 (en) | Viewer control method and information processing device | |
WO2022176719A1 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221005 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7154841 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |