JP2020005089A - Imaging system, image processing apparatus, image processing method, and program - Google Patents

Imaging system, image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2020005089A
JP2020005089A JP2018121985A JP2018121985A JP2020005089A JP 2020005089 A JP2020005089 A JP 2020005089A JP 2018121985 A JP2018121985 A JP 2018121985A JP 2018121985 A JP2018121985 A JP 2018121985A JP 2020005089 A JP2020005089 A JP 2020005089A
Authority
JP
Japan
Prior art keywords
camera
cameras
image
determined
predetermined position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018121985A
Other languages
Japanese (ja)
Other versions
JP7154841B2 (en
JP2020005089A5 (en
Inventor
希名 板倉
Kina Itakura
希名 板倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018121985A priority Critical patent/JP7154841B2/en
Priority to PCT/JP2019/024218 priority patent/WO2020004162A1/en
Publication of JP2020005089A publication Critical patent/JP2020005089A/en
Priority to US17/126,979 priority patent/US11297301B2/en
Publication of JP2020005089A5 publication Critical patent/JP2020005089A5/ja
Application granted granted Critical
Publication of JP7154841B2 publication Critical patent/JP7154841B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accessories Of Cameras (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)

Abstract

To construct a system that can generate a high-quality virtual viewpoint image with a limited number of cameras.SOLUTION: A system that acquires a multi-viewpoint image for generating a virtual viewpoint image includes a plurality of cameras installed so as to image a predetermined position from different directions, and the plurality of cameras includes a first camera and a second camera installed at a two-fold symmetric position of the first camera about an axis passing through the predetermined position and perpendicular to an imaging field and at the closest position among the cameras to the two-fold symmetric position, and between the first and second cameras, a parameter that affects at least one of the texture resolution of an object in a captured image and the shooting range of the camera from among the parameters defining the characteristics is different.SELECTED DRAWING: Figure 1

Description

本発明は、仮想視点画像を生成する際に用いる複数視点画像を取得するシステム及び仮想視点画像を生成する技術に関する。   The present invention relates to a system for acquiring a plurality of viewpoint images used when generating a virtual viewpoint image and a technique for generating a virtual viewpoint image.

被写体(オブジェクト)を複数のカメラで撮像して得られた画像(複数視点画像)から、当該オブジェクトを任意の仮想視点から見た際に得られる画像(仮想視点画像)を生成する技術が知られている。そして、仮想視点画像の品質は、オブジェクトを撮像したカメラの台数と複数視点画像の品質に依存する。例えば、サッカーやラグビーといったスポーツの試合では、選手等のオブジェクトが競技フィールドなどの広い撮像空間に散らばって動いている。このような撮像シーンにおいて、複数のカメラをフィールドの中央に向けて設置した場合、フィールド中央にいる選手等に関しては高品質な仮想視点画像を生成できる。一方で、フィールドの端部にいる選手等に関しては、当該選手等をその画角内に収めているカメラが限られるため、仮想視点画像の生成に必要な複数視点画像が得られない又は低品質の仮想視点画像しか得られない可能性がある。設置する全てのカメラの画角をフィールド全体が収まるように設定すれば、選手等のフィールド上の位置に拠らず十分な複数視点画像を得ることができ、一定品質の仮想視点画像が生成可能ではある。しかし、その場合の各撮像画像に写る選手等のサイズは小さく、そのテクスチャは低解像度になってしまうため、得られる仮想視点画像におけるオブジェクトのテクスチャも低解像度となってしまう。   2. Description of the Related Art A technique for generating an image (virtual viewpoint image) obtained when an object (object) is viewed from an arbitrary virtual viewpoint from an image (multiple viewpoint images) obtained by capturing an object with a plurality of cameras is known. ing. The quality of the virtual viewpoint image depends on the number of cameras that have captured the object and the quality of the multi-viewpoint image. For example, in sports games such as soccer and rugby, objects such as players move around a large imaging space such as a competition field. In such an imaging scene, when a plurality of cameras are installed facing the center of the field, a high-quality virtual viewpoint image can be generated for a player or the like at the center of the field. On the other hand, for a player or the like at the end of the field, since the camera that holds the player or the like within the angle of view is limited, a multi-view image required for generating the virtual viewpoint image cannot be obtained or the quality is low. There is a possibility that only the virtual viewpoint image is obtained. By setting the angle of view of all cameras to be set so that the entire field can be accommodated, sufficient multiple viewpoint images can be obtained regardless of the position of the players etc. on the field, and virtual viewpoint images of constant quality can be generated Yes. However, in such a case, the size of a player or the like appearing in each captured image is small, and the texture thereof has a low resolution. Therefore, the texture of the object in the obtained virtual viewpoint image also has a low resolution.

この点、特許文献1には、特定のオブジェクトを追った非固定のズームカメラを追加的に設け、当該特定のオブジェクトについて解像度の高いテクスチャを追加で用いることで高品質な仮想視点画像を生成する方法が記載されている。   In this regard, Patent Literature 1 additionally provides a non-fixed zoom camera that tracks a specific object, and generates a high-quality virtual viewpoint image by additionally using a high-resolution texture for the specific object. A method is described.

特開2012−185772号公報JP 2012-185772 A

上記特許文献1に記載の技術では、非固定ズームカメラで追った特定オブジェクトについてしか仮想視点画像の品質を向上させることができない。そのため、特許文献1の技術を適用して、フィールド上に多数の選手等のオブジェクトが存在するスポーツのシーンなどを対象に十分な複数視点画像を得ようとすれば、膨大な数のカメラが必要になってしまう。実際には、スタジアムなどに設置可能なカメラの台数には物理的なスペースやコストなどの面で制限があることから、多くのオブジェクトが存在するような撮像シーンにも、より少ないカメラ台数で対応可能な技術が望まれる。   According to the technology described in Patent Document 1, the quality of the virtual viewpoint image can be improved only for a specific object tracked by a non-fixed zoom camera. Therefore, if the technique of Patent Document 1 is applied to obtain a sufficient multi-viewpoint image for a sports scene or the like in which many objects such as players exist on the field, an enormous number of cameras are required. Become. Actually, the number of cameras that can be installed in a stadium or the like is limited due to physical space, cost, etc., so a smaller number of cameras can be used for imaging scenes with many objects A possible technology is desired.

本発明に係る、仮想視点画像を生成するための複数視点画像を取得するシステムは、所定の位置を異なる方向から撮像するように設置された複数のカメラを有し、前記複数のカメラには、第一のカメラと、前記所定の位置を通り撮像フィールドに対して垂直な軸を中心とする、前記第一のカメラの2回対称の位置又は前記2回対称の位置に前記複数のカメラの中で最も近い位置に設置された第二のカメラ、とからなる少なくとも1組のカメラが含まれ、前記第一のカメラと前記第二のカメラとでは、その特性を規定するパラメータのうち撮像画像におけるオブジェクトのテクスチャ解像度及びカメラの撮影範囲の少なくとも一方に影響するパラメータが異なることを特徴とする。   According to the present invention, a system for acquiring a multi-viewpoint image for generating a virtual viewpoint image includes a plurality of cameras installed so as to capture a predetermined position from different directions, and the plurality of cameras include: A first camera, and a two-fold symmetric position of the first camera or the two-fold symmetric position of the plurality of cameras at an axis perpendicular to an imaging field passing through the predetermined position. And a second camera installed at a position closest to the camera, and at least one set of cameras including the first camera and the second camera. It is characterized in that parameters affecting at least one of the texture resolution of the object and the shooting range of the camera are different.

本発明によれば、限られたカメラ台数で高品質な仮想視点画像を生成することができる。   According to the present invention, a high-quality virtual viewpoint image can be generated with a limited number of cameras.

(a)及び(b)は、オブジェクトを異なる視点から撮像するためのカメラ配置の一例を示す図FIGS. 3A and 3B are diagrams illustrating an example of a camera arrangement for imaging an object from different viewpoints; FIGS. (a)は互いに対向する位置にあるカメラが同じ画角を持つ場合に得られる撮像画像を説明する図、(b)は互いに対向する位置にあるカメラが異なる画角を持つ場合に得られる撮像画像を説明する図FIG. 4A is a diagram for explaining a captured image obtained when cameras at opposite positions have the same angle of view, and FIG. 7B is an image obtained when cameras at opposite positions have different angles of view. Diagram explaining the image システム構成の一例を示す図Diagram showing an example of the system configuration (a)は制御装置のハードウェア構成の一例を示す図、(b)は制御装置のソフトウェア構成の一例を示す図(A) is a diagram illustrating an example of a hardware configuration of the control device, and (b) is a diagram illustrating an example of a software configuration of the control device. 実施形態2に係る、画像処理システムの制御の流れを示すフローチャート5 is a flowchart illustrating a control flow of the image processing system according to the second embodiment. 各カメラの配置の一例を示す図Diagram showing an example of the arrangement of each camera (a)及び(b)は、実施形態3の概要を説明するためのカメラの配置の一例を示す図FIGS. 7A and 7B are diagrams illustrating an example of an arrangement of cameras for explaining an outline of a third embodiment; FIGS. 実施形態3に係る、画像処理システムの制御の流れを示すフローチャート9 is a flowchart illustrating a control flow of the image processing system according to the third embodiment.

以下、本発明の実施形態について図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the following embodiments do not limit the present invention, and not all combinations of the features described in the present embodiments are necessarily essential to the solution of the present invention. The same components will be described with the same reference numerals.

実施形態1Embodiment 1

本実施形態では、撮像画像におけるオブジェクトサイズが小さいことに由来する仮想視点画像の解像感の低下抑制、及びカメラの数が少ないことに由来する仮想視点画像の品質低下が起きる領域の削減を考慮した、システム構成の決定方法について説明する。以下では、仮想視点画像における解像感の低下抑制を「画質の向上」、仮想視点画像の品質低下が起きる領域の削減を「視点の自由度の向上」、とそれぞれ表現する場合がある。なお、仮想視点画像とは、エンドユーザ及び/又は選任のオペレータ等が自由に仮想視点に対応するカメラ(仮想カメラ)の位置及び姿勢を操作することによって生成される画像であり、自由視点画像や任意視点画像などとも呼ばれる。また、仮想視点画像は、動画であっても、静止画であってもよい。   In the present embodiment, consideration is given to suppressing a reduction in the sense of resolution of the virtual viewpoint image resulting from the small object size in the captured image and reducing the area in which the quality of the virtual viewpoint image is reduced due to the small number of cameras. The method of determining the system configuration will be described. Hereinafter, suppression of a reduction in the resolution of the virtual viewpoint image may be referred to as “improvement of image quality”, and reduction of a region where the quality of the virtual viewpoint image is reduced may be referred to as “improvement of degree of freedom of viewpoint”. The virtual viewpoint image is an image generated by an end user and / or an appointed operator or the like freely operating the position and orientation of a camera (virtual camera) corresponding to the virtual viewpoint, and includes a free viewpoint image and Also called an arbitrary viewpoint image. Further, the virtual viewpoint image may be a moving image or a still image.

図1は、本実施形態に係る、オブジェクトを異なる視点から撮像するためのカメラ配置の一例を示す図であり、(a)は三次元の俯瞰図、(b)は真上から見た二次元平面図を示している。このカメラ配置では、7台のカメラ11〜17で撮像を行って、仮想視点画像を生成するための複数視点画像を取得する。7台という台数は一例であり、サッカーやラグビーといった広大な空間を対象に撮像を行う場合にはさらに多くのカメラが設置されることはいうまでもない。図1(a)及び(b)に示すように、カメラ11〜17は、撮像空間の全周を取り囲むように配置されている。また、カメラ11〜17は、撮像フィールド(撮像空間の底面)10上に設定される任意の注視点18に向けて設置されている。ここで、注視点とは、カメラが注視する撮像空間内の任意の点(カメラの視線方向)を示すものであり、図1に示すカメラ11〜17は、同一の注視点18を向いている。いま、注視点18は、各カメラの光軸と底面18との交点に位置する。注視点の位置は任意であり、例えば撮像空間内の空中に設定してもよい。   1A and 1B are diagrams illustrating an example of a camera arrangement for imaging an object from different viewpoints according to the present embodiment, where FIG. 1A is a three-dimensional bird's-eye view, and FIG. FIG. In this camera arrangement, images are taken by the seven cameras 11 to 17 and a plurality of viewpoint images for generating a virtual viewpoint image are acquired. The number of seven is an example, and it goes without saying that more cameras are installed when imaging is performed on a vast space such as soccer and rugby. As shown in FIGS. 1A and 1B, the cameras 11 to 17 are arranged so as to surround the entire circumference of the imaging space. The cameras 11 to 17 are installed toward an arbitrary point of gaze 18 set on the imaging field (the bottom surface of the imaging space) 10. Here, the gazing point indicates an arbitrary point (the line of sight of the camera) in the imaging space that the camera gazes at, and the cameras 11 to 17 illustrated in FIG. . Now, the gazing point 18 is located at the intersection between the optical axis of each camera and the bottom surface 18. The position of the gazing point is arbitrary, and may be set, for example, in the air in the imaging space.

従来であれば、視点の自由度向上のために、カメラ11〜17のすべてに対し、撮像空間のおおよそ全体が視野内に入るような広い画角を設定していた。そのため、複数のカメラにより得られた複数視点画像における人物などのオブジェクトのテクスチャは低解像度となり、その結果、生成した仮想視点画像も低画質なものしか得られなかった。図2(a)は、カメラ11とその対向する位置にあるカメラ15とが同じ画角を持つ場合に得られる撮像画像を説明する図である。両カメラの画角が同一である場合、カメラ11では撮像画像24が得られ、カメラ15では撮像画像25が得られる。この場合、双方の撮像画像24及び25に写る人物オブジェクト21〜23の数や種類はおおよそ同一(図2(a)の例では完全に一致)となる。さらに、視体積公差法などの手法によってオブジェクトの三次元形状データを生成する場合、撮像画像24に基づくシルエット画像26と撮像画像25に基づくシルエット画像27とは、左右が反転しているだけで、そこから得られる情報に大きな違いはない。そのため、カメラ11(又はカメラ15)で得られた撮像画像を除外して三次元形状データの生成を行ったとしても、除外しない場合に比べて、生成されるオブジェクトの三次元形状データの精度はそれほど変わらない。   In the related art, in order to improve the degree of freedom of the viewpoint, a wide angle of view is set for all of the cameras 11 to 17 so that approximately the entire imaging space is within the field of view. Therefore, the texture of an object such as a person in a multi-viewpoint image obtained by a plurality of cameras has a low resolution, and as a result, only a low-quality virtual viewpoint image is generated. FIG. 2A is a diagram illustrating a captured image obtained when the camera 11 and the camera 15 located at the opposite position have the same angle of view. When both cameras have the same angle of view, the camera 11 obtains a captured image 24 and the camera 15 obtains a captured image 25. In this case, the numbers and types of the human objects 21 to 23 appearing in both the captured images 24 and 25 are approximately the same (completely coincident in the example of FIG. 2A). Furthermore, when generating the three-dimensional shape data of an object by a method such as the visual volume tolerance method, the silhouette image 26 based on the captured image 24 and the silhouette image 27 based on the captured image 25 are only inverted left and right. There is no significant difference in the information obtained therefrom. Therefore, even if the captured image obtained by the camera 11 (or the camera 15) is excluded and the three-dimensional shape data is generated, the accuracy of the generated three-dimensional shape data of the generated object is higher than the case where the three-dimensional shape data is not excluded. Not much different.

上記従来技術に対し本実施形態では、注視点を挟んで向かい合って設置されているカメラ同士に異なる画角を設定し、一方のカメラには広い画角を、もう一方のカメラには狭い画角を設定する。具体的には、カメラ11、12、13、14、16及び17に対しては、撮像フィールド10を含む撮像空間のおおよそ全体が視野に入るような画角を設定する。そして、カメラ11と注視点18とを結ぶ線(以下、「基線」と呼ぶ。)19上の対向する位置に存在するカメラ15に対しては、カメラ11と比べて狭い画角を設定する。図2(b)は、カメラ11の対向する位置にあるカメラ15が、カメラ11よりも狭い画角を持つ場合に得られる撮像画像を説明する図である。この場合、カメラ15ではオブジェクトがより拡大された(つまり、テクスチャの解像度が高い)撮像画像28とそのシルエット画像29が得られる。このように、注視点を挟んで向かい合って設置されるカメラ同士には異なる画角を設定することにより、生成されるオブジェクトの三次元形状データの精度を低下させることなく、当該オブジェクトについての解像度の高いテクスチャ画像を取得することができる。その結果、視点の自由度を担保しながら高画質の仮想視点画像を生成することが可能となる。   In the present embodiment, different angles of view are set for the cameras installed facing each other with the point of gaze in between, and one camera has a wide angle of view, and the other camera has a narrow angle of view. Set. Specifically, an angle of view is set for the cameras 11, 12, 13, 14, 16, and 17 such that approximately the entire imaging space including the imaging field 10 is within the field of view. Then, a narrower angle of view is set for the camera 15 located at an opposite position on a line (hereinafter, referred to as a “base line”) 19 connecting the camera 11 and the gazing point 18. FIG. 2B is a diagram illustrating a captured image obtained when the camera 15 at a position facing the camera 11 has a narrower angle of view than the camera 11. In this case, the camera 15 obtains a captured image 28 in which the object is further enlarged (that is, the resolution of the texture is high) and a silhouette image 29 thereof. In this way, by setting different angles of view for cameras installed facing each other with the gazing point therebetween, the resolution of the object can be reduced without lowering the accuracy of the generated three-dimensional shape data. High texture images can be obtained. As a result, it is possible to generate a high-quality virtual viewpoint image while securing the degree of freedom of the viewpoint.

本実施形態では、設置するカメラが7台の場合を例に説明を行ったが、カメラ台数は少なくとも2台以上であればよく、注視点を挟んで向かい合う(より望ましくは、注視点を中心軸として2回対称の位置に存在する)1組のカメラが含まれていればよい。このとき、各カメラは同一の注視点を向いている必要があるが、およそ同一の注視点を向いていると評価可能な範囲内の微差は許容される。なお、カメラ群単位でまったく異なる注視点が設定されているような場合は、注視点毎に本実施形態を適用可能である。例えば、サッカーのフィールドの左半分と右半分をそれぞれ担当する2つのカメラ群が存在し、カメラ群毎に別個の注視点(例えばそれぞれのゴール前付近)が設定されている場合は、それぞれの注視点に対応するカメラ群単位で本実施形態を適用すればよい。   In the present embodiment, the case where seven cameras are installed has been described as an example. However, the number of cameras may be at least two or more, and the cameras face each other with the point of gaze therebetween (more preferably, the center of gaze is set at the center axis). It is only necessary that a set of cameras be included. At this time, each camera needs to face the same gazing point, but a slight difference within a range that can be evaluated when the cameras are facing the same gazing point is allowed. Note that when completely different points of interest are set for each camera group, the present embodiment is applicable to each point of interest. For example, if there are two camera groups that are respectively responsible for the left half and the right half of the soccer field, and each camera group has a different gazing point (for example, near the front of each goal), This embodiment may be applied to each camera group corresponding to the viewpoint.

また、本実施形態では、対の関係になる1組のカメラは、注視点を中心として等距離にあるカメラ同士となっているが、注視点からの距離が同じでなくてもよい。さらに、組合せとなるカメラは、注視点を挟んで略対向する位置にあればよい。例えば、図1(b)において、カメラ17を基準とし、当該カメラ17と注視点18とを結ぶ破線で示す基線19’からわずかにずれた位置に存在するカメラ13の画角を変更してもよい。どの程度のずれまでを許容するかは、撮像対象となる空間の広さやカメラの設置台数など、種々の条件を加味して決定されることになる。このように、1組のカメラは、あるカメラと、注視点を通り撮像フィールドに対して垂直な軸を中心とする、そのカメラの2回対称の位置又は2回対称の位置に複数のカメラの中で最も近い位置に設置されたカメラと、からなる。そして、必ずしも1組のカメラは、注視点を挟んで対向していなくてもよい。   Further, in the present embodiment, a pair of cameras in a pair relationship are cameras equidistant from the gazing point, but the distances from the gazing point may not be the same. Furthermore, the cameras to be combined only need to be at positions substantially facing each other across the point of regard. For example, in FIG. 1B, even when the angle of view of the camera 13 existing at a position slightly deviated from the base line 19 ′ indicated by a broken line connecting the camera 17 and the gazing point 18 with respect to the camera 17 is changed. Good. The degree of deviation allowed is determined in consideration of various conditions such as the size of the space to be imaged and the number of cameras installed. In this manner, a set of cameras may be associated with a camera and a plurality of cameras at a two-fold symmetric position or a two-fold symmetric position of the camera about an axis passing through the point of interest and perpendicular to the imaging field. And the camera installed closest to the camera. In addition, one set of cameras does not necessarily have to face each other with the gazing point therebetween.

また、本実施形態では、対の関係にある1組カメラのうちの一方のカメラの画角を、他方のカメラよりも狭くしていたが、これに限定されない。例えば、特性を変更しない方のカメラの画角を標準よりも狭く設定しておき、特性を変更する方のカメラの画角を広くしてもよい。また、特性を変更しない方のカメラの画角はすべて同一である必要はなく、カメラ毎に異なっていてもよい。   Further, in the present embodiment, the angle of view of one of the paired cameras in the pair is narrower than that of the other camera, but the present invention is not limited to this. For example, the angle of view of the camera whose characteristic is not changed may be set narrower than the standard, and the angle of view of the camera whose characteristic is changed may be widened. Also, the angles of view of the cameras whose characteristics are not changed need not be the same, and may differ for each camera.

また、本実施形態では、オブジェクトのテクスチャ解像度に影響を与えるカメラ特性のパラメータとして画角を変更していたが、変更対象のパラメータは、画角に限られない。オブジェクトのテクスチャ解像度に影響のある他のパラメータ、例えば、焦点距離、撮像センサのサイズ、センサの種類、レンズの種類などでもよい。例えば、焦点距離を長くしたり、レンズを望遠レンズに変更したりすることで、画角を狭くするのと同じ効果が得られる。さらには、4K対応のカメラから8K対応のカメラに変更するなどしてもよい。   In the present embodiment, the angle of view is changed as a parameter of the camera characteristic that affects the texture resolution of the object. However, the parameter to be changed is not limited to the angle of view. Other parameters that affect the texture resolution of the object, such as the focal length, the size of the imaging sensor, the type of sensor, and the type of lens may be used. For example, by increasing the focal length or changing the lens to a telephoto lens, the same effect as narrowing the angle of view can be obtained. Further, the camera that supports 4K may be changed to a camera that supports 8K.

以上説明した考え方に従って、撮像空間を囲むように設置するカメラの構成を決定することで、カメラ台数を抑えつつ、仮想視点画像の生成における視点の自由度と画質向上とを両立可能な画像処理システムを構築することができる。   By determining the configuration of the cameras installed so as to surround the imaging space in accordance with the concept described above, an image processing system capable of achieving both a degree of freedom of viewpoint and an improvement in image quality in generating a virtual viewpoint image while suppressing the number of cameras. Can be constructed.

実施形態2Embodiment 2

実施形態1では、設置するカメラ台数を抑えつつ、仮想視点画像の画質向上と視点の自由度向上とを両立させることが可能なカメラ構成を決定するための基本的な考え方について説明した。次に、実施形態1で説明した考え方に従ってカメラ構成を決定し、そのカメラ構成の下で複数視点画像を取得して仮想視点画像を生成する画像処理システムについて説明する。   In the first embodiment, the basic concept for determining a camera configuration capable of achieving both improvement in the image quality of the virtual viewpoint image and improvement in the degree of freedom of the viewpoint while suppressing the number of cameras to be installed has been described. Next, an image processing system that determines a camera configuration according to the concept described in the first embodiment, acquires a plurality of viewpoint images under the camera configuration, and generates a virtual viewpoint image will be described.

以下で説明するカメラ構成を決定する装置は、撮像空間における所定の位置を異なる方向から撮像するように設置された複数のカメラの位置及び姿勢を示すカメラ情報を取得する及び注視点の位置情報を取得し、それらの情報基づき、カメラの構成配置を決定する装置である。この装置は、所定の位置を通り撮像フィールドに対して垂直な軸を中心とする2回対称の位置又は2回対称の位置に最も近い位置に設置された、第一のカメラと第二のカメラとからなる少なくとも1組のカメラについて、その構成を決定する。具体的には、この装置により、1組のカメラを構成する第一のカメラと第二のカメラとでは、撮像画像におけるオブジェクトのテクスチャ解像度及びカメラの撮影範囲の少なくとも一方に影響するパラメータが異なるように、カメラ構成が決定される。また、この装置によって、所定の位置を挟んで対向する1組のカメラにおいて、その2つのカメラの特性を規定するパラメータのうち撮像画像におけるオブジェクトのテクスチャ解像度に影響するパラメータが異なるように、カメラ構成が決定される。つまり、この装置を用いれば、カメラ情報と注視点の位置情報とを外部から入力して、適切なカメラの構成を決定することが可能となる。   An apparatus for determining a camera configuration described below acquires camera information indicating the positions and orientations of a plurality of cameras installed to image a predetermined position in an imaging space from different directions, and obtains position information of a gazing point. It is a device that obtains and determines the configuration of the camera based on the information. The apparatus comprises a first camera and a second camera installed at or closest to a two-fold symmetric position about an axis passing through a predetermined position and perpendicular to an imaging field. The configuration is determined for at least one set of cameras consisting of Specifically, with this device, the parameters that affect at least one of the texture resolution of the object in the captured image and the shooting range of the camera differ between the first camera and the second camera that constitute one set of cameras. Next, the camera configuration is determined. In addition, the camera configuration is such that a set of cameras facing each other across a predetermined position has different parameters affecting the texture resolution of the object in the captured image among the parameters defining the characteristics of the two cameras. Is determined. That is, by using this device, it is possible to input the camera information and the position information of the gazing point from the outside, and determine an appropriate camera configuration.

(システム構成)
本実施形態に係る、仮想視点画像を生成する画像処理システムについて、図3のシステム構成図を用いて説明する。画像処理システム100は、撮像モジュール110a〜110g、データベース(DB)250、サーバ270、制御装置300、スイッチングハブ180、及びエンドユーザ端末(不図示)を有する。すなわち、画像処理システム100は、映像収集ドメイン、データ保存ドメイン、及び映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインは撮像モジュール110a〜110gを含み、データ保存ドメインはDB250とサーバ270を含み、映像生成ドメインは制御装置300及びエンドユーザ端末を含む。
(System configuration)
An image processing system for generating a virtual viewpoint image according to the present embodiment will be described with reference to a system configuration diagram in FIG. The image processing system 100 includes imaging modules 110a to 110g, a database (DB) 250, a server 270, a control device 300, a switching hub 180, and an end user terminal (not shown). That is, the image processing system 100 has three functional domains: a video collection domain, a data storage domain, and a video generation domain. The image collection domain includes the imaging modules 110a to 110g, the data storage domain includes the DB 250 and the server 270, and the image generation domain includes the control device 300 and the end user terminal.

制御装置300は、画像処理システム100を構成するそれぞれのブロックに対して、ネットワークを通じて動作状態の管理や各種パラメータの設定といった様々な制御を行う。この制御装置300によって、上述のカメラ構成の決定、複数視点画像の取得、仮想視点の設定、仮想視点画像の生成といった一連の処理が実現される。制御装置300の詳細については、後述する。   The control device 300 performs various controls, such as management of an operation state and setting of various parameters, on each block constituting the image processing system 100 via a network. With the control device 300, a series of processes such as determination of the camera configuration, acquisition of a plurality of viewpoint images, setting of a virtual viewpoint, and generation of a virtual viewpoint image are realized. Details of the control device 300 will be described later.

撮像モジュール110a〜110gは、それぞれ1台ずつのカメラ112a〜112gを有する。以下では、撮像モジュール110a〜110gまでの7セットのシステムを区別せず、単に「撮像モジュール110」と記載する場合がある。各撮像モジュール110内の装置についても同様に、「カメラ112」、「カメラアダプタ120」と記載する場合がある。なお、撮像モジュール110の台数を7セットとしているが、あくまでも一例でありこれに限定されない。撮像モジュール110a〜110gはデイジーチェーンにより接続される。この接続形態により、撮影画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる効果がある。なお、接続形態は任意であり、例えば撮像モジュール110a〜110gがスイッチングハブ180にそれぞれ接続されて、スイッチングハブ180を経由して撮像モジュール110間のデータ送受信を行うスター型のネットワーク構成としてもよい。カメラアダプタ120は、他のカメラアダプタ120やサーバ270、制御装置300とデータ通信を行う。また、カメラ112が撮影した画像データ及び他のカメラアダプタ120から受取った画像データに対して、前景背景分離処理、前景三次元形状データ元情報生成処理、動的キャリブレーションなどの処理を行う。また、制御装置300からの制御信号に基づき、カメラ112を制御する。具体的には、撮像の開始及び停止、撮影パラメータ(画素数、色深度、フレームレート、及びホワイトバランス)の設定、カメラ112の状態情報(撮影中、停止中、同期中、及びエラーなど)の取得、画角や焦点距離の設定変更などを行う。撮像モジュール110a内のカメラ112aにて撮影された画像は、カメラアダプタ120aにおいて所定の画像処理が施された後、撮像モジュール110bのカメラアダプタ120bに伝送される。同様に撮像モジュール110bは、カメラ112bにて撮影した画像を、撮像モジュール110aから取得した画像と合わせて撮像モジュール110cに伝送する。このような動作を続けることにより、撮像モジュール110a〜110gで取得された撮像画像は、撮像モジュール110gからスイッチングハブ180に伝わり、その後、サーバ270へ伝送される。   Each of the imaging modules 110a to 110g has one camera 112a to 112g. In the following, the seven sets of systems including the imaging modules 110a to 110g may be simply referred to as “imaging module 110” without distinction. Similarly, the device in each imaging module 110 may be described as “camera 112” or “camera adapter 120”. Note that the number of the imaging modules 110 is set to seven, but this is merely an example and the present invention is not limited to this. The imaging modules 110a to 110g are connected by a daisy chain. With this connection form, there is an effect that the number of connection cables can be reduced and the wiring work can be saved in increasing the capacity of image data accompanying higher resolution of a captured image to 4K or 8K and higher frame rate. The connection form is arbitrary. For example, a star-type network configuration in which the imaging modules 110a to 110g are connected to the switching hub 180 and data is transmitted and received between the imaging modules 110 via the switching hub 180 may be adopted. The camera adapter 120 performs data communication with other camera adapters 120, the server 270, and the control device 300. In addition, for the image data captured by the camera 112 and the image data received from the other camera adapter 120, processing such as foreground / background separation processing, foreground three-dimensional shape data source information generation processing, and dynamic calibration is performed. The camera 112 is controlled based on a control signal from the control device 300. More specifically, start and stop of imaging, setting of imaging parameters (number of pixels, color depth, frame rate, and white balance), and status information of the camera 112 (imaging, stopping, synchronizing, error, etc.) Acquisition, setting change of angle of view and focal length, etc. are performed. The image captured by the camera 112a in the imaging module 110a is subjected to predetermined image processing in the camera adapter 120a, and then transmitted to the camera adapter 120b of the imaging module 110b. Similarly, the imaging module 110b transmits the image captured by the camera 112b to the imaging module 110c together with the image acquired from the imaging module 110a. By continuing such an operation, the captured images acquired by the imaging modules 110a to 110g are transmitted from the imaging module 110g to the switching hub 180, and then transmitted to the server 270.

DB250は、制御装置300の指示に基づき、各撮像モジュール110で撮像された複数視点画像のデータを格納し、InfiniBand等の高速な通信によって、サーバ270との間で画像データ等を送受信する。また、撮像空間内にある施設や構造物の3Dデータを保持し、背景3Dデータライブラリとして機能する。施設や構造物の3Dデータは、撮影シーン(スポーツの種目やイベント)に応じて予め用意され、制御装置300の要求に応じてサーバ270へ送信される。   The DB 250 stores data of a plurality of viewpoint images captured by each imaging module 110 based on an instruction from the control device 300, and transmits and receives image data and the like to and from the server 270 by high-speed communication such as InfiniBand. In addition, it holds 3D data of facilities and structures in the imaging space and functions as a background 3D data library. The 3D data of the facility or the structure is prepared in advance according to the shooting scene (sports event or event), and is transmitted to the server 270 in response to a request from the control device 300.

サーバ270は、撮像モジュール110gから取得した画像データを、カメラの識別番号やデータ種別、フレーム番号に応じてDB250に書き込む。そして、サーバ270は、ユーザ指定等に基づく仮想視点に関する情報(仮想視点情報)を制御装置300から受け取る。そして、受け取った仮想視点情報に従ってレンダリング処理を行って仮想視点画像を生成する。レンダリング処理によって得られた仮想視点からの見えを表すレンダリング画像(仮想視点画像)は、サーバ270から制御装置300に送信される。そして、ユーザは、自らが指定した仮想視点に応じた画像の閲覧ができる。   The server 270 writes the image data acquired from the imaging module 110g into the DB 250 according to the camera identification number, data type, and frame number. Then, the server 270 receives information (virtual viewpoint information) related to the virtual viewpoint based on the user designation or the like from the control device 300. Then, rendering processing is performed according to the received virtual viewpoint information to generate a virtual viewpoint image. A rendered image (virtual viewpoint image) representing the appearance from the virtual viewpoint obtained by the rendering process is transmitted from the server 270 to the control device 300. Then, the user can browse images according to the virtual viewpoint designated by the user.

(制御装置の詳細)
図4(a)は、制御装置300のハードウェア構成の一例を示す図である。制御装置300は、CPU301、RAM302、HDD303、ネットワークI/F304、汎用I/F305、モニタ308、メインバス309を備える。ネットワークI/F304は、DB250、サーバ270、スイッチングハブ180をメインバス309に接続するインタフェースである。汎用I/F305は、マウスやキーボードなどの入力装置306、メモリカードなどの外部メモリ307をメインバス309に接続するインタフェースである。そして、図4(b)は、本実施形態に係る、制御装置300のソフトウェア構成を示す機能ブロック図であり、カメラ構成決定部401、カメラ制御部402、仮想視点設定部403、仮想視点画像生成部404で構成される。これら各部は、CPU301がHDD303に格納された所定のプログラムをRAM302に展開しこれを実行することで実現される。
(Details of control device)
FIG. 4A is a diagram illustrating an example of a hardware configuration of the control device 300. The control device 300 includes a CPU 301, a RAM 302, an HDD 303, a network I / F 304, a general-purpose I / F 305, a monitor 308, and a main bus 309. The network I / F 304 is an interface for connecting the DB 250, the server 270, and the switching hub 180 to the main bus 309. The general-purpose I / F 305 is an interface for connecting an input device 306 such as a mouse and a keyboard, and an external memory 307 such as a memory card to the main bus 309. FIG. 4B is a functional block diagram illustrating a software configuration of the control device 300 according to the present embodiment. The camera configuration determination unit 401, the camera control unit 402, the virtual viewpoint setting unit 403, and the virtual viewpoint image generation It comprises a unit 404. These units are realized by the CPU 301 expanding a predetermined program stored in the HDD 303 in the RAM 302 and executing the program.

(システム制御の流れ)
続いて、本実施形態に係る、制御装置300による画像処理システムの制御の流れを説明する。図5は、本実施形態に係る、図3に示す画像処理システムにおける制御の流れを示すフローチャートである。以下、図4(b)に示す各部が行う処理の詳細について、図5のフローに沿って説明する。なお、以下の説明における記号「S」はステップを表す。
(System control flow)
Subsequently, a flow of control of the image processing system by the control device 300 according to the present embodiment will be described. FIG. 5 is a flowchart showing a control flow in the image processing system shown in FIG. 3 according to the present embodiment. Hereinafter, details of the processing performed by each unit illustrated in FIG. 4B will be described with reference to the flow illustrated in FIG. The symbol “S” in the following description represents a step.

S501では、カメラ構成決定部401が、設置された複数のカメラの位置及び姿勢(光軸方向)を示すカメラ情報を取得する。カメラ情報は、撮像空間の底面をx,y軸、高さをz軸とした三次元座標軸を定義し、各カメラの位置を座標空間での位置pi(pxi,pyi,pzi)、各カメラの姿勢をベクトルvi[vxi,vyi,vzi]で表現した情報である。ここで、iは設置された複数のカメラそれぞれの識別番号である。なお、カメラ情報の内容は上述のものに限られず、各カメラの座標位置と注視点の座標位置の情報でもよい。   In step S501, the camera configuration determination unit 401 acquires camera information indicating the positions and orientations (optical axis directions) of a plurality of cameras installed. The camera information defines three-dimensional coordinate axes in which the bottom surface of the imaging space is the x and y axes and the height is the z axis, and the position of each camera is the position pi (pxi, pyi, pzi) in the coordinate space, This is information expressing the posture by a vector vi [vxi, vyi, vzi]. Here, i is the identification number of each of the installed cameras. Note that the contents of the camera information are not limited to those described above, but may be information on the coordinate position of each camera and the coordinate position of the gazing point.

図6は、カメラ情報で特定される、各カメラの配置の一例を示す図である。いま、図3に示す7台のカメラ112a〜112gが、注視点601を向いて設置されている。この場合において、例えば、自カメラの対向する位置に他のカメラが存在するカメラ112e〜カメラ112gの画角を、それぞれの対向位置のカメラ112b〜112dの画角よりも狭くしたとする。この場合、カメラ112e〜112gの方向から見たときのオブジェクトのテクスチャは高解像度となる。しかし、その反対方向602から見たときのテクスチャは低解像度となり、オブジェクト全体の画質を向上させることができない。そこで、以降のS502〜S507において、画角は狭いがオブジェクトを高解像度で撮像可能なカメラを、撮像空間の全周に略均等な間隔で配置するようにしている。   FIG. 6 is a diagram illustrating an example of an arrangement of each camera specified by the camera information. Now, seven cameras 112 a to 112 g shown in FIG. 3 are installed facing the gazing point 601. In this case, for example, it is assumed that the angles of view of the cameras 112e to 112g in which another camera exists at a position facing the own camera are narrower than the angles of view of the cameras 112b to 112d at the respective facing positions. In this case, the texture of the object when viewed from the direction of the cameras 112e to 112g has a high resolution. However, the texture when viewed from the opposite direction 602 has a low resolution, and the image quality of the entire object cannot be improved. Therefore, in the subsequent steps S502 to S507, cameras having a narrow angle of view but capable of capturing an object with high resolution are arranged at substantially equal intervals on the entire circumference of the imaging space.

S502では、カメラ構成決定部401が、S501で取得したカメラ情報を参照し、全設置カメラの中から、着目するカメラ(着目カメラ)を1つ決定する。通常は、上述のカメラを識別する番号iが若いものから順に、着目カメラに決定される。続くS503において、カメラ構成決定部401は、S501で取得したカメラ情報を用いて、着目カメラを基準として注視点を挟んだ対向する位置に、他のカメラが存在するかどうかの判定処理を行う。この判定処理は、例えば、以下の1)〜3)のような手順で行われる。   In S502, the camera configuration determining unit 401 refers to the camera information acquired in S501, and determines one camera of interest (camera of interest) from all the installed cameras. Normally, the camera of interest is determined in ascending order of the number i for identifying the camera. In subsequent S503, the camera configuration determining unit 401 uses the camera information acquired in S501 to perform a process of determining whether or not another camera exists at a position facing the gazing point with respect to the target camera. This determination process is performed, for example, in the following procedures 1) to 3).

1)各カメラの視線方向を示すベクトルを二次元平面に投影し、かつ、正規化して得られた方向ベクトルvi[vpi,vqi]を、カメラ毎に算出する。ここで、iは各カメラを識別する番号であり、いまi=1〜7である。   1) A vector indicating the line-of-sight direction of each camera is projected on a two-dimensional plane, and a direction vector vi [vpi, vqi] obtained by normalization is calculated for each camera. Here, i is a number for identifying each camera, and i = 1 to 7 now.

2)着目カメラの方向ベクトルvo[vpo,vqo]と、着目カメラ以外のカメラの方向ベクトルvj[vpj,vqj]との内積vo・vjを算出する。ここで、oは着目カメラの識別番号を表し、jは着目カメラ以外のカメラの識別番号を表す。例えば、i=1のとき、o=1、j=2〜7である。   2) The inner product vo · vj of the direction vector vo [vpo, vqo] of the camera of interest and the direction vector vj [vpj, vqj] of the camera other than the camera of interest is calculated. Here, o represents the identification number of the camera of interest, and j represents the identification number of a camera other than the camera of interest. For example, when i = 1, o = 1 and j = 2-7.

3)上記2)で算出した内積vo・vojの値が負、かつ、内積vo・vjの符号を反転した値が1になるカメラがあれば、着目カメラの対向する位置に他のカメラが存在すると判断する。   3) If there is a camera in which the value of the inner product vo · voj calculated in the above 2) is negative and the value obtained by inverting the sign of the inner product vo · vj is 1, another camera exists at a position opposite to the camera of interest. I judge it.

こうして得られた判定処理の結果は、対向カメラ存否情報として着目カメラと紐付けて保持される。対向カメラ情報は、例えば第一の値と第二の値とで構成される。第一の値は、対向する位置に他のカメラが存在する場合を“1”、存在しない場合を“0”で示す1ビットの情報である。そして、第二の値は、第一の値が“1”の場合(対向する位置に他のカメラが存在する場合)における、当該他のカメラの識別番号の情報である。したがって、第一の値が“0”の場合、第二の値はブランク(0)である。なお、本処理の開始時点で、各カメラの対向カメラ存否情報は初期化され、第一の値は“0”、第二の値はブランクの状態になっているものとする。ここでは、二次元平面と内積を用いて、対向する位置関係にあるカメラの存否を判定したが、その判定方法はこれに限定されない。着目カメラと向かい合っている他のカメラの存否が判断できる手法であればどのような手法でもよい。この判定処理の結果、自カメラの対向する位置に他のカメラが存在する場合は、第一の値が“1”に、第2の値が当該他のカメラの識別番号にそれぞれ更新される。以降、対向カメラ存否情報における第一の値が“1”であるカメラを「対カメラ」と呼ぶこととする。   The result of the determination process obtained in this manner is held in association with the camera of interest as information on the presence or absence of the opposite camera. The on-coming camera information includes, for example, a first value and a second value. The first value is 1-bit information indicating “1” when another camera exists at the opposite position and “0” when there is no other camera. Then, the second value is information on the identification number of the other camera when the first value is “1” (when another camera is present at the opposing position). Therefore, if the first value is "0", the second value is blank (0). At the start of this processing, it is assumed that the opposite camera presence information of each camera is initialized, the first value is “0”, and the second value is blank. Here, the presence / absence of a camera in a facing positional relationship is determined using the two-dimensional plane and the inner product, but the determination method is not limited to this. Any method may be used as long as it can determine whether or not there is another camera facing the target camera. As a result of this determination processing, when another camera exists at a position facing the own camera, the first value is updated to “1” and the second value is updated to the identification number of the other camera. Hereinafter, a camera whose first value in the on-coming camera existence information is “1” is referred to as “a camera-to-camera”.

S504では、S501で取得したカメラ情報に係る、同じ注視点を持つすべてのカメラに対して、S503の判定処理が完了したか否かが判定される。未処理のカメラがあればS502に戻って次のカメラを着目カメラに設定して処理を続行する。一方、すべてのカメラについての判定処理が完了していれば、S505に進む。   In S504, it is determined whether or not the determination processing in S503 has been completed for all cameras having the same gazing point according to the camera information acquired in S501. If there is an unprocessed camera, the process returns to S502, sets the next camera as the camera of interest, and continues the processing. On the other hand, if the determination process has been completed for all cameras, the process proceeds to S505.

S505では、カメラ構成決定部401が、各カメラの対向カメラ存否情報を用いて、特性を変更するカメラを決定する際の基準となる角度(基準角度)を導出する。仮想視点を設定可能な方向に特に限定がない場合の基準角度は、360度から対向カメラ存否情報における第一の値の総数の半分の数を除算した値となる。上述の図6の例の場合は、6個のカメラ(112b、112c、112d、112e、112f及び112g)に紐付いた対向カメラ存否情報において第一の値が“1”になるので、360÷(6÷2))=120度が基準角度となる。つまり、図6のカメラ配置の場合、画角は狭いがオブジェクトを高解像度で撮像可能なカメラを、120度の均等角度で撮像空間の全周に配置することが、本ステップにおいて決まる。   In step S505, the camera configuration determining unit 401 derives an angle (reference angle) that is used as a reference when determining a camera whose characteristics are to be changed, using the presence / absence information of the opposite camera of each camera. The reference angle when there is no particular limitation on the direction in which the virtual viewpoint can be set is a value obtained by dividing half the total number of the first values in the on-camera presence information from 360 degrees. In the example of FIG. 6 described above, the first value is “1” in the on-camera presence information linked to the six cameras (112b, 112c, 112d, 112e, 112f, and 112g). 6 ÷ 2)) = 120 degrees is the reference angle. That is, in the case of the camera arrangement shown in FIG. 6, it is determined in this step that a camera having a narrow angle of view but capable of imaging an object with high resolution is arranged at a uniform angle of 120 degrees all around the imaging space.

S506では、カメラ構成決定部401が、特性を変更するカメラを決定する際の基準となるカメラを、設置されている全カメラ112a〜112gのうち、対向カメラ存否情報における第一の値が“1”である対カメラの中から決定する。ここでは、対カメラの中からランダムに選択された1つのカメラを、基準となるカメラ(以下、「基準カメラ」と呼ぶ。)とする。基準カメラの決定はこれに限らず、例えば、対カメラ同士の間隔が最も狭いカメラを基準カメラとしてもよい。   In step S <b> 506, the camera configuration determination unit 401 determines the camera that serves as a reference when determining the camera whose characteristics are to be changed, among all installed cameras 112 a to 112 g, in which the first value in the opposite camera existence information is “1”. Is determined from among the paired cameras. Here, one camera randomly selected from the paired cameras is set as a reference camera (hereinafter, referred to as a “reference camera”). The determination of the reference camera is not limited to this. For example, a camera having the shortest distance between the paired cameras may be set as the reference camera.

S507では、カメラ構成決定部401が、S501で取得したカメラ情報、S505で導出した基準角度、S506で決定した基準カメラに基づいて、特性を変更するカメラ(以下、「特性変更カメラ」と呼ぶ。)を決定する。この決定処理は、例えば、以下の1)〜3)のような手順で行われる。   In step S507, the camera configuration determining unit 401 changes the characteristic based on the camera information acquired in step S501, the reference angle derived in step S505, and the reference camera determined in step S506 (hereinafter, referred to as a “characteristic changed camera”). ). This determination process is performed, for example, in the following procedures 1) to 3).

1)基準カメラbと、基準カメラから時計回りに隣り合う対カメラkとの角度θbkを算出する。角度θbkは、例えばカメラ間の方向ベクトルの内積により求めることができる。ここで、kは、隣り合う対カメラの識別番号を示す。   1) Calculate the angle θbk between the reference camera b and the camera k adjacent to the reference camera b in the clockwise direction. The angle θbk can be obtained, for example, by the inner product of the direction vectors between the cameras. Here, k indicates an identification number of an adjacent camera pair.

2)算出した角度θbkと基準角度とを比較する。比較の結果、角度θbkが基準角度以上である場合は、基準カメラと隣り合う対カメラkを特性変更カメラとして決定し、基準カメラを対カメラkと置き換える。一方、角度θbkが基準角度未満である場合は、対カメラkは特性変更カメラではないと判断する。   2) Compare the calculated angle θbk with the reference angle. As a result of the comparison, if the angle θbk is equal to or larger than the reference angle, the paired camera k adjacent to the reference camera is determined as the characteristic-changed camera, and the reference camera is replaced with the paired camera k. On the other hand, if the angle θbk is smaller than the reference angle, it is determined that the camera k is not a characteristic-change camera.

3)上記1)及び2)の処理を、対カメラの全ての組み合わせにおいて、どちらか一方のカメラが特性変更カメラとして決定されるまで順に時計回りに行う。
こうして、基準カメラを含むすべての対カメラについて、特性変更カメラとするか否かの判定がなされる。
3) The above processes 1) and 2) are sequentially performed clockwise in all combinations of cameras until one of the cameras is determined as the characteristic-changed camera.
In this way, it is determined whether or not all paired cameras including the reference camera are to be the characteristic-changed cameras.

ここで、図6の場合を例に、S502〜S507までの各処理によって、どのようにして特性変更カメラが決定されるのかを説明する。まず、7台のカメラ112a〜112gのカメラ情報を参照し、注視点601を挟んで互いに対向する位置にあるカメラの組合せの存否が判定される。判定の結果、カメラ112bと112e、カメラ112cと112f、カメラ112dと112g、の各組合せに属するカメラが「対カメラ」として決定される。次に、対カメラの中からランダムに基準カメラが選択され、例えばカメラ112dが基準カメラとして選択されたとする。ここで、基準カメラ112dから時計回りに隣り合う対カメラ112cは、基準カメラ112dとの角度が基準角度120度未満であるため、特性変更カメラではないと判断される。さらに、隣り合う対カメラ112bは、基準カメラ112dとの角度が基準角度120度以上となるため、特性変更カメラとして決定し、カメラ112bが新たな基準カメラとなる。新たな基準カメラ112bにおいては、隣り合う対カメラ112gが基準角度未満かつさらに隣り合う対カメラ112fが基準角度以上となるため、カメラ112fが特性変更カメラとして決定される。対カメラの全て組み合わせ(カメラ112bと112e、カメラ112cと112f、カメラ112dと112g)において、一方のカメラが特性変更カメラとして決定されるまでこの処理を繰り返した結果、各組合せにおいて、カメラ112b、カメラ112d、カメラ112fが、特性変更カメラとして決定されることになる。仮に、仮想視点を設定可能な範囲が限定される場合は、S505における基準角度の導出において、除算する値を360度ではなく、その限定された範囲の角度(例えば180度)とすればよい。この場合、S507で決定する基準カメラは、当該限定された範囲にあるカメラの中から選ぶことになる。このようにして、特性変更カメラとして決定されたカメラ112の識別番号の情報は、カメラ制御部402へ送られる。図5のフローの説明に戻る。   Here, how the characteristic-change camera is determined by the respective processes from S502 to S507 will be described, taking the case of FIG. 6 as an example. First, referring to the camera information of the seven cameras 112a to 112g, it is determined whether or not there is a combination of cameras at positions facing each other with the point of regard 601 interposed therebetween. As a result of the determination, a camera belonging to each combination of the cameras 112b and 112e, the cameras 112c and 112f, and the cameras 112d and 112g is determined as "a camera-to-camera". Next, it is assumed that the reference camera is randomly selected from the paired cameras, and for example, the camera 112d is selected as the reference camera. Here, the paired camera 112c clockwise adjacent to the reference camera 112d is determined not to be a characteristic-changed camera since the angle with the reference camera 112d is less than the reference angle of 120 degrees. Further, since the angle between the adjacent paired camera 112b and the reference camera 112d is equal to or larger than the reference angle of 120 degrees, the camera is determined as a characteristic-changed camera, and the camera 112b becomes a new reference camera. In the new reference camera 112b, since the adjacent paired camera 112g is smaller than the reference angle and the adjacent paired camera 112f is larger than the reference angle, the camera 112f is determined as the characteristic-changed camera. In all combinations of cameras (cameras 112b and 112e, cameras 112c and 112f, and cameras 112d and 112g), this process was repeated until one of the cameras was determined to be a characteristic-changed camera. 112d and the camera 112f are determined as the characteristic-changed cameras. If the range in which the virtual viewpoint can be set is limited, in the derivation of the reference angle in S505, the value to be divided may be not 360 degrees but an angle within the limited range (for example, 180 degrees). In this case, the reference camera determined in S507 is selected from cameras within the limited range. In this way, information on the identification number of the camera 112 determined as the characteristic-change camera is sent to the camera control unit 402. Returning to the description of the flow of FIG.

S508では、カメラ制御部402が、特性変更カメラとして決定されたカメラ112の特性を規定するパラメータを変更するための制御信号を、当該カメラ112を有する撮像モジュール110に送信する。本実施形態におけるパラメータは画角であり、より狭い画角への変更を指示する制御信号が送信されることになる。当該制御信号を受信した撮像モジュール110内のカメラアダプタ120は、カメラ112の画角を、より狭い画角に変更する設定を行う。こうして、特性変更カメラは、その対向する位置に存在するカメラの画角よりも狭い画角を有することになる。これにより、当該カメラの撮像画像におけるオブジェクトはより大きく写る(すなわち、オブジェクトのテクスチャ解像度がより高い撮像画像が得られる)ことになる。この際、画角をどの程度変更するかは、ユーザインタフェースを介したユーザ指示に従ってもよいし、事前に定められた規定値に変更してもよい。また、実施形態1で述べたとおり、変更の対象となるパラメータは画角に限られない。   In step S508, the camera control unit 402 transmits a control signal for changing a parameter that defines the characteristics of the camera 112 determined as the characteristic-change camera to the imaging module 110 including the camera 112. The parameter in the present embodiment is the angle of view, and a control signal instructing a change to a narrower angle of view is transmitted. The camera adapter 120 in the imaging module 110 that has received the control signal performs setting for changing the angle of view of the camera 112 to a narrower angle of view. Thus, the characteristic-change camera has a smaller angle of view than the angle of view of the camera located at the position opposite thereto. As a result, the object in the image captured by the camera becomes larger (that is, a captured image with a higher texture resolution of the object is obtained). At this time, how much the angle of view is changed may be in accordance with a user instruction via a user interface, or may be changed to a predetermined value determined in advance. Further, as described in the first embodiment, the parameter to be changed is not limited to the angle of view.

S509では、カメラ制御部402が、撮像モジュール110a〜110gに対して、撮像の開始を指示する制御信号を送信する。これにより各撮像モジュール110において撮像が開始され、各カメラ112による撮像画像が得られる。こうして、オブジェクトを複数の異なる視点から撮像した複数視点画像のデータが取得され、DB250に保存される。なお、撮像画像が動画像の場合は、フレーム毎に、以降の各処理が実行される。   In step S509, the camera control unit 402 transmits a control signal for instructing start of imaging to the imaging modules 110a to 110g. As a result, imaging is started in each imaging module 110, and an image captured by each camera 112 is obtained. In this way, data of a multi-view image obtained by imaging the object from a plurality of different viewpoints is obtained and stored in the DB 250. When the captured image is a moving image, the following processes are executed for each frame.

S510では、仮想視点画像生成部404が、サーバ270に対し、S509で取得した複数視点画像に含まれる各オブジェクトの三次元形状データの作成(形状推定)を指示する。この指示を受けて、サーバ270は、それぞれの撮像画像からオブジェクト領域を切り出し、各オブジェクトの三次元形状を推定する。複数視点画像に基づく三次元形状の推定には、例えば視体積公差法やステレオマッチング法といった公知の手法を用いればよい。   In S510, the virtual viewpoint image generation unit 404 instructs the server 270 to create three-dimensional shape data (shape estimation) of each object included in the multiple viewpoint images acquired in S509. In response to this instruction, the server 270 cuts out the object area from each captured image and estimates the three-dimensional shape of each object. For estimating the three-dimensional shape based on the multiple viewpoint images, a known method such as a visual volume tolerance method or a stereo matching method may be used.

S511では、仮想視点設定部403が、仮想カメラの三次元位置及び姿勢(光軸方向)を表す仮想視点の設定を行う。この際、生成する仮想視点画像における画角及び解像度などを併せて設定するようにしてもよい。設定は、モニタ308に表示された仮想視点設定用のUI画面(不図示)を介して入力されたユーザ指示に基づいてなされる。或いは、予め定めた仮想視点の情報をHDD303等から読み込んで自動で設定されるようにしてもよい。   In step S511, the virtual viewpoint setting unit 403 sets a virtual viewpoint indicating the three-dimensional position and orientation (optical axis direction) of the virtual camera. At this time, the angle of view and the resolution in the generated virtual viewpoint image may be set together. The setting is performed based on a user instruction input via a virtual viewpoint setting UI screen (not shown) displayed on the monitor 308. Alternatively, information of a predetermined virtual viewpoint may be read from the HDD 303 or the like and automatically set.

S512では、仮想視点画像生成部404が、S511で設定された仮想視点に従った仮想視点画像の生成をサーバ270に指示する。この指示を受けて、サーバ270は、S509で取得された複数視点画像とS510で作成等された三次元形状データとを用い、公知の視点依存レンダリングなどの手法で仮想視点画像を生成する。生成した仮想視点画像はモニタ308に出力され、ユーザは、自己が設定等した任意の視点からの仮想視点画像を閲覧することができる。   In S512, the virtual viewpoint image generation unit 404 instructs the server 270 to generate a virtual viewpoint image according to the virtual viewpoint set in S511. In response to this instruction, the server 270 generates a virtual viewpoint image by using a known viewpoint-dependent rendering method using the multiple viewpoint images acquired in S509 and the three-dimensional shape data created in S510. The generated virtual viewpoint image is output to the monitor 308, and the user can browse the virtual viewpoint image from an arbitrary viewpoint set by the user.

以上が、本実施形態に係る、システム制御の流れである。なお、図5のフローでは、対カメラの中から基準カメラを選択して、特性変更カメラを決定しているがこれに限定されない。例えば、対カメラ以外のカメラの中から基準カメラを選択し、上記手法に準じて特性を変更しないままにするカメラ(特性不変更カメラ)を決定していき、最終的に残った対カメラを特性変更カメラとしてもよい。また、図5のフローでは時計回りに判定を行ったが、反時計回りに行ってもよい。また、図5のフローでは基準角度を演算で求めたが、事前に定めた角度に従って特性変更カメラが均等に配置されるようにしてもよい。   The above is the flow of the system control according to the present embodiment. In the flow of FIG. 5, the reference camera is selected from the paired cameras, and the characteristic-change camera is determined. However, the present invention is not limited to this. For example, a reference camera is selected from cameras other than the paired camera, a camera whose characteristics are not changed (characteristic unchanged camera) is determined according to the above-described method, and the remaining paired cameras are finally determined as characteristics. It may be a change camera. Although the determination is made clockwise in the flow of FIG. 5, the determination may be made counterclockwise. In the flow of FIG. 5, the reference angle is calculated by calculation, but the characteristic-changed cameras may be arranged evenly according to a predetermined angle.

<変形例>
本実施形態では、制御装置300において、カメラ構成の決定、複数視点画像の取得、仮想視点の設定、仮想視点画像の生成といった一連のプロセスを制御するようにしていたがこれに限定されない。例えば、カメラ構成を決定するS508までの各処理を別個独立の情報処理装置(PC)で行って、カメラの設置・調整までを事前に行なっておき、制御装置300はS509以降の処理のみを行なう構成であってもよい。
<Modification>
In the present embodiment, the control device 300 controls a series of processes such as determination of a camera configuration, acquisition of a plurality of viewpoint images, setting of a virtual viewpoint, and generation of a virtual viewpoint image, but is not limited thereto. For example, each processing up to S508 for determining the camera configuration is performed by a separate and independent information processing device (PC), and the installation and adjustment of the camera are performed in advance, and the control device 300 performs only the processing after S509. It may be a configuration.

また、本実施形態では、着目カメラに対して完全に対称関係にある位置に他のカメラが存在する場合のみ、着目カメラを対カメラとして決定したが、これに限定されない。すなわち、自カメラから見ておおよそ対称な位置関係にあると評価できる他のカメラがあれば、その着目カメラを対カメラとしてよい。その場合は、内積vo・vjの符号を反転した値が事前に定めた閾値よりも大きい他のカメラが存在することを条件に、着目カメラを対カメラとすればよい。ここで、完全に対称関係とは、注視点を通り、撮像フィールドに垂直な軸を中心として、互いに2回対称の位置になる関係のことをいう。   In the present embodiment, the camera of interest is determined as a paired camera only when another camera exists at a position completely symmetrical with respect to the camera of interest. However, the present invention is not limited to this. That is, if there is another camera that can be evaluated as having an approximately symmetrical positional relationship when viewed from the own camera, the camera of interest may be set to the opposite camera. In that case, the camera of interest may be set to the paired camera on the condition that there is another camera in which the value obtained by inverting the sign of the inner product vo · vj is larger than a predetermined threshold. Here, the completely symmetrical relationship refers to a relationship in which positions are symmetrical twice with respect to an axis passing through the point of gaze and perpendicular to the imaging field.

また、本実施形態では、対カメラか否かの判定を、二次元の方向ベクトルに基づき行ったがこれに限定されない。例えば、高さ方向を含む三次元的な位置関係に基づいて判定を行なって、高さが異なる場合は対カメラではないと判断してもよい。例えば、スタジアムの1階と2階のように設置フロアが異なる場合、1階のカメラと2階のカメラとの間では、二次元の方向ベクトルに基づけば対カメラと判断され得るが、高さが大きく異なるので対カメラとは判断しない。   In the present embodiment, the determination as to whether or not the camera is a camera is made based on the two-dimensional direction vector, but is not limited to this. For example, the determination may be made based on a three-dimensional positional relationship including the height direction, and if the heights are different, it may be determined that the camera is not a camera. For example, if the installation floors are different, such as the first floor and the second floor of a stadium, the camera on the first floor and the camera on the second floor can be determined as a paired camera based on the two-dimensional direction vector, Is so different that the camera is not determined.

また、本実施形態では、基準カメラを決定するのは1回だけであったが、これに限定されない。対向カメラ存否情報における第一の値が“1”であるカメラを順番に基準カメラに決定し、S508までの処理を繰り返し行って、特性変更カメラの配置が、仮想視点の設定可能な範囲内で最も均等に近くなるカメラ構成を採用するようにしてもよい。   Further, in the present embodiment, the reference camera is determined only once, but is not limited to this. The camera whose first value in the oncoming camera existence information is “1” is sequentially determined as the reference camera, and the processing up to S508 is repeatedly performed so that the arrangement of the characteristic-changed camera is within the settable range of the virtual viewpoint. A camera configuration that provides the closest uniformity may be adopted.

実施形態3Embodiment 3

実施形態2では、設置された全てのカメラのうち、共通の注視点を挟んで対向する位置に他のカメラが存在する全てのカメラを特性変更カメラの候補とし、対の関係にあるカメラの一方を特性変更カメラに決定していた。次に、設置されている複数のカメラのうち、予め定めた台数だけ特性変更カメラとして決定する態様を、実施形態3として説明する。この態様は、設置されている複数のカメラの中に、共通の注視点を挟んでおおよそ対向しているものの、双方のカメラが完全な対称位置にはないようなケースにおいて有効である。なお、実施形態2と共通する内容については説明を省略ないしは簡略化し、以下では差異点を中心に説明を行うものとする。   In the second embodiment, among all the installed cameras, all the cameras in which another camera exists at a position opposite to the common gazing point are set as candidates of the characteristic changing camera, and one of the paired cameras is Was determined to be a characteristic changing camera. Next, an embodiment in which a predetermined number of cameras installed among a plurality of installed cameras are determined as characteristic-change cameras will be described as a third embodiment. This aspect is effective in a case where, although a plurality of cameras installed are roughly opposed to each other with a common gazing point therebetween, both cameras are not completely symmetrical. The description of the contents common to the second embodiment will be omitted or simplified, and the following description will focus on the differences.

本実施形態では、対カメラの対称度合いと基線同士の近接度合いとに基づいて、特性変更カメラを決定する。その理由をまず説明する。   In the present embodiment, the characteristic-change camera is determined based on the degree of symmetry of the camera and the degree of proximity between the baselines. The reason will be described first.

各カメラから延びる基線が撮像空間の全周に亘って均等に存在せず、カメラ同士の間隔に大きな空きがあるようなケースでは、そのような空きがないシステムに比べて十分なシルエット画像が得られない。この場合、撮像シーン内のオブジェクトの三次元形状データの精度が低下するため、生成される仮想視点画像も低画質なものになる。したがって、設置される各カメラの間隔はできるだけ密で、かつ、均等であることが望ましい。また、前述のとおり、注視点を挟んで互いに対向する位置のカメラの撮像画像に基づく2つのシルエット画像は左右が反転しているに過ぎない。したがって、注視点を挟んで対向するようなカメラ配置を含んだシステムとそうでないシステムとで、各撮像画像のシルエット画像から得られる情報に大きな違いはなく、生成される仮想視点画像の画質にも大きな差は生じない。   In cases where the baseline extending from each camera does not exist evenly over the entire circumference of the imaging space, and there is a large gap between the cameras, a sufficient silhouette image can be obtained compared to a system without such a gap. I can't. In this case, since the accuracy of the three-dimensional shape data of the object in the captured scene is reduced, the generated virtual viewpoint image also has low image quality. Therefore, it is desirable that the intervals between the cameras to be installed be as close and uniform as possible. Further, as described above, the two silhouette images based on the captured images of the cameras at positions opposing each other with the point of regard interposed therebetween are merely left and right inverted. Therefore, there is no significant difference in the information obtained from the silhouette image of each captured image between the system including the camera arrangement facing each other with the gazing point in between, and the image quality of the generated virtual viewpoint image. There is no significant difference.

これらの事実を総合すると、自カメラと対向する位置に他のカメラが存在し、かつ、自カメラの近傍に他のカメラが存在するカメラであれば、システムを構成するカメラ群から除外しても、生成される仮想視点画像の画質はそれほど低下しないと考えられる。そこで本実施形態では、対向カメラ対称度が高く、かつ、基線近接度が高いカメラを、特性変更カメラに決定するようにしている。   Summarizing these facts, if there is another camera at the position facing the own camera and there is another camera near the own camera, even if it is excluded from the camera group constituting the system, It is considered that the image quality of the generated virtual viewpoint image does not decrease so much. Thus, in the present embodiment, a camera having a high degree of symmetry of the opposing camera and a high degree of base line proximity is determined as the characteristic-changed camera.

図7(a)及び(b)を参照して、本実施形態の概要を説明する。図7の(a)及び(b)は、本実施形態に係るカメラの配置の一例を示す図であり、いずれも5台のカメラ112a〜112eが撮像空間を囲むように設置されている。このようなカメラ配置において、1台のカメラの特性を変更するケースを想定する。   An outline of the present embodiment will be described with reference to FIGS. FIGS. 7A and 7B are diagrams illustrating an example of the arrangement of cameras according to the present embodiment, in which five cameras 112a to 112e are installed so as to surround an imaging space. In such a camera arrangement, it is assumed that the characteristics of one camera are changed.

図7(a)は特性変更カメラとしてカメラ112aを選択した場合、図7(b)は特性変更カメラとしてカメラ112dを選択した場合をそれぞれ示している。図7(a)では、カメラ112dから延びる基線701は、注視点700を挟んだ向こう側において、カメラ112cから延びる基線702及びカメラ112bから延びる基線703と隣り合っており、基線703に比べて基線702の方が、明らかに近い位置にある。つまり、基線701と基線702とのなす角度α1の方が、基線701と基線703とのなす角度α2よりもかなり小さい。これに対して、図7(b)では、カメラ112aから延びる基線704は、カメラ112cから延びる基線702とカメラ112bから延びる基線703と隣り合っており、かつ、基線702と基線703との略中間の位置にある。つまり、基線704と基線702とのなす角度β1と、基線704と基線703とのなす角度β2とはそれほど違わない。   FIG. 7A shows the case where the camera 112a is selected as the characteristic changing camera, and FIG. 7B shows the case where the camera 112d is selected as the characteristic changing camera. In FIG. 7A, a baseline 701 extending from the camera 112d is adjacent to a baseline 702 extending from the camera 112c and a baseline 703 extending from the camera 112b on the other side of the gazing point 700. 702 is clearly closer. That is, the angle α1 between the base line 701 and the base line 702 is considerably smaller than the angle α2 between the base line 701 and the base line 703. On the other hand, in FIG. 7B, the base line 704 extending from the camera 112a is adjacent to the base line 702 extending from the camera 112c and the base line 703 extending from the camera 112b, and is substantially intermediate between the base line 702 and the base line 703. In the position. That is, the angle β1 formed by the base line 704 and the base line 702 is not so different from the angle β2 formed by the base line 704 and the base line 703.

視体積公差法などの手法によってオブジェクトの三次元形状データを生成する場合、その精度を向上するためには、当該オブジェクトをあらゆる方向から撮像し、そのシルエット画像を取得する必要がある。図7(a)の状況において、カメラ112aの特性を変更した場合、基線701と基線703との間の領域におけるシルエット画像の取得が困難になる結果、三次元形状データの精度が悪くなる。すると、そのような三次元形状データに基づいて生成した仮想視点画像の画質も低下することになる。これに対して、図7(b)では、基線同士の間隔がおおよそ等間隔であるため、異なる方向から偏りなくシルエット画像を取得することができる。そのため、カメラ112dの特性を変更したとしても、変更しない場合と比べて仮想視点画像の画質は大きく劣化しない。そこで、図7(b)に示すように、シルエット画像の取得に影響がより少ない位置のカメラを特性変更カメラとして決定するようにする。そのために、注視点を挟んだ向こう側での基線の近接度を新たな判断指標として用いる。なお、設置されているカメラ台数が全5台で、そのうちの1台を特性変更カメラとする場合を例に説明したが、設置するカメラの台数や特性を変更するカメラの台数は任意であることはいうまでもない。   When generating three-dimensional shape data of an object by a method such as the visual volume tolerance method, it is necessary to image the object from all directions and acquire a silhouette image of the object in order to improve the accuracy. In the situation of FIG. 7A, when the characteristics of the camera 112a are changed, it becomes difficult to obtain a silhouette image in an area between the base line 701 and the base line 703, and as a result, the accuracy of the three-dimensional shape data deteriorates. Then, the image quality of the virtual viewpoint image generated based on such three-dimensional shape data also deteriorates. On the other hand, in FIG. 7B, since the intervals between the base lines are approximately equal, the silhouette images can be acquired without bias from different directions. Therefore, even if the characteristics of the camera 112d are changed, the image quality of the virtual viewpoint image is not significantly deteriorated as compared with the case where the characteristics are not changed. Therefore, as shown in FIG. 7B, a camera at a position that has less influence on acquisition of a silhouette image is determined as a characteristic-changed camera. For this purpose, the proximity of the baseline on the other side of the gazing point is used as a new judgment index. In addition, the case where the number of installed cameras is five in total and one of them is a characteristic changing camera has been described as an example, but the number of cameras to be installed and the number of cameras for changing characteristics are arbitrary. Needless to say.

(システム制御の流れ)
続いて、本実施形態に係る画像処理システムの制御の流れを、図8のフローチャートに沿って説明する。図8のフローは、実施形態2の図5のフローに対応しており、制御装置300のハードウェア構成やソフトウェア構成も実施形態2で説明したとおりである(図4(a)及び(b)を参照)。
(System control flow)
Next, the control flow of the image processing system according to the present embodiment will be described with reference to the flowchart of FIG. The flow of FIG. 8 corresponds to the flow of FIG. 5 of the second embodiment, and the hardware configuration and the software configuration of the control device 300 are the same as those described in the second embodiment (FIGS. 4A and 4B). See).

S801では、設置された複数のカメラの位置及び姿勢(光軸方向)を示すカメラ情報に加え、全設置カメラのうちその特性を変更するカメラの台数の情報が取得される。続くS802では、図5のフローのS502と同様、S801で取得したカメラ情報を参照し、設置されている全カメラの中から着目カメラが1つ決定される。   In step S801, in addition to camera information indicating the positions and orientations (optical axis directions) of a plurality of installed cameras, information on the number of cameras whose characteristics are to be changed among all the installed cameras is acquired. In subsequent S802, as in S502 of the flow in FIG. 5, one camera of interest is determined from all the installed cameras by referring to the camera information acquired in S801.

S803では、カメラ構成決定部401が、S802で決定した着目カメラと当該着目カメラ以外のカメラのうち最も対向している位置にあるカメラとの対称度合いを、S801で取得したカメラ情報を用いて導出する。この導出処理は、例えば、以下の1)〜3)のような手順で行われる。   In step S803, the camera configuration determination unit 401 derives the degree of symmetry between the camera of interest determined in step S802 and the camera at the most opposing position among cameras other than the camera of interest using the camera information acquired in step S801. I do. This derivation process is performed, for example, in the following procedures 1) to 3).

1)各カメラの視線方向を示すベクトルを二次元平面に投影し、かつ、正規化して得られた方向ベクトルvi[vpi,vqi]を、カメラ毎に算出する。ここで、iは各カメラの識別番号であり、いまi=1〜5である。   1) A vector indicating the line-of-sight direction of each camera is projected on a two-dimensional plane, and a direction vector vi [vpi, vqi] obtained by normalization is calculated for each camera. Here, i is the identification number of each camera, and i = 1 to 5 now.

2)着目カメラの方向ベクトルvo[vpo,vqo]と、着目カメラ以外のカメラの方向ベクトルvj[vpj,vqj]との内積vo・vjを算出する。ここで、oは着目カメラの識別番号を表し、jは着目カメラ以外のカメラの識別番号を表す。例えば、i=1のとき、o=1、j=2〜5である。   2) The inner product vo · vj of the direction vector vo [vpo, vqo] of the camera of interest and the direction vector vj [vpj, vqj] of the camera other than the camera of interest is calculated. Here, o represents the identification number of the camera of interest, and j represents the identification number of a camera other than the camera of interest. For example, when i = 1, o = 1 and j = 2-5.

3)上記2)で算出した内積vo・vjの値が負であり、かつ、内積vo・vjの符号を反転した値が最大となるカメラを求め、当該カメラのvo・vjの符号を反転した値を、着目カメラに関する対向カメラの対称度合いを表す指標とする。   3) A camera is obtained in which the value of the inner product vo · vj calculated in the above 2) is negative and the value obtained by inverting the sign of the inner product vo · vj is the maximum, and the sign of vo · vj of the camera is inverted. The value is used as an index indicating the degree of symmetry of the oncoming camera with respect to the camera of interest.

こうして求めた指標値が、対向カメラ対称度情報として着目カメラと紐付けて保持される。自カメラと注視点を挟んで対向している他のカメラの位置がより対称位置に近いときほど指標値は大きくなり(完全な対称位置のときに最大値をとる)、より高い対称度合いを表すことになる。   The index value thus obtained is held in association with the camera of interest as the opposite camera symmetry information. The index value increases as the position of the other camera facing the own camera with the point of gazing between them is closer to the symmetric position (the maximum value is obtained when the camera is completely symmetric), indicating a higher degree of symmetry. Will be.

S804では、カメラ構成決定部401が、S802で決定した着目カメラから延びる基線に、注視点を挟んだ向こう側で隣り合う他のカメラから延びる基線が、どの程度近接しているかを、S801で取得したカメラ情報を用いて導出する。この導出処理は、例えば、以下の1)〜4)のような手順で行われる。   In step S <b> 804, the camera configuration determination unit 401 acquires in step S <b> 801 how close the baseline extending from the camera of interest determined in step S <b> 802 is to the baseline extending from another camera adjacent to the reference line across the gazing point. It is derived using the obtained camera information. This derivation process is performed, for example, in the following procedures 1) to 4).

1)各カメラの視線方向を示すベクトルを二次元平面に投影し、かつ、正規化して得られた方向ベクトルvi[vpi,vqi]を、カメラ毎に算出する。ここでも、iは各カメラの識別番号であり、いまi=1〜5である。   1) A vector indicating the line-of-sight direction of each camera is projected on a two-dimensional plane, and a direction vector vi [vpi, vqi] obtained by normalization is calculated for each camera. Here, i is the identification number of each camera, and i = 1 to 5 now.

2)着目カメラを、注視点を挟んだその対称位置から見たときの逆方向ベクトルvo’[v’po,v’qo]を、着目カメラの方向ベクトルに基づき算出する。ここで、oは着目カメラの識別番号である。   2) The backward vector vo '[v'po, v'qo] when the target camera is viewed from its symmetric position with respect to the point of regard is calculated based on the direction vector of the target camera. Here, o is the identification number of the camera of interest.

3)逆方向ベクトルと着目カメラ以外のカメラの方向ベクトルとの内積vo’・vi及び、逆方向ベクトルと着目カメラ以外のカメラの方向ベクトルとの外積vo’×viを、カメラ毎に算出する。   3) The inner product vo '· vi of the backward vector and the direction vector of the camera other than the camera of interest and the outer product vo' × vi of the direction vector of the camera other than the camera of interest and the vector of the camera other than the camera of interest are calculated for each camera.

4)外積vo’×viの値が正であるカメラにおいて内積vo’・viが最大となる正方向の値と、外積vo’×viの値が負であるカメラにおいて内積vo’・viが最大となる負方向の値とを比較する。そして、小さい方の値を、着目カメラに関する基線の近接度合いを表す指標とする。こうして求めた指標値が、基線近接度情報として着目カメラと紐付けて保持される。基線近接度は、自カメラから延びる基線を基準として、隣り合う基線との間隔が狭いものほど指標値は小さくなり、より高い近接度合いを示すことになる。   4) A positive value in which the inner product vo '· vi is the largest in a camera having a positive outer product vo' × vi value, and a largest inner product vo '· vi in a camera in which the outer product vo' × vi value is negative. Is compared with the negative value. Then, the smaller value is used as an index indicating the degree of proximity of the baseline to the camera of interest. The index value thus obtained is held in association with the camera of interest as baseline proximity information. With respect to the base line proximity based on the base line extending from the own camera, the smaller the distance between adjacent base lines, the smaller the index value and the higher the closeness.

S805では、S801で取得したカメラ情報に係るすべてのカメラ(全設置カメラ)に対して、S803及びS804の導出処理が完了したか否かが判定される。未処理のカメラがあればS802に戻って次のカメラを着目カメラに設定して処理を続行する。一方、すべてのカメラについて2種類の導出処理が完了していれば、S806に進む。   In S805, it is determined whether the derivation processing in S803 and S804 has been completed for all cameras (all installed cameras) related to the camera information acquired in S801. If there is an unprocessed camera, the process returns to step S802 to set the next camera as the camera of interest and continues the processing. On the other hand, if the two types of derivation processes have been completed for all the cameras, the process proceeds to S806.

S806では、カメラ構成決定部401が、S801で取得した特性変更カメラの台数情報を用いて、特性変更カメラを決定する際の基準角度を導出する。仮想視点を設定可能な方向に特に限定がない場合の基準角度は、360度から特性変更カメラの台数を除算した値となる。上述の図7の例の場合は、特性を変更するカメラの台数は1台なので、360÷1=360度となる。   In step S806, the camera configuration determination unit 401 derives a reference angle for determining a characteristic-change camera using the number-of-characteristic-change-cameras information acquired in step S801. The reference angle when there is no particular limitation on the direction in which the virtual viewpoint can be set is a value obtained by dividing the number of characteristic-change cameras from 360 degrees. In the case of the example of FIG. 7 described above, the number of cameras whose characteristics are changed is one, so that 360 ÷ 1 = 360 degrees.

S807では、カメラ構成決定部401が、特性変更カメラを決定する際の基準カメラを、全設置カメラ(ここでは112a〜112e)の中から決定する。具体的には、S803で導出した各カメラの対向カメラ対称度情報を参照し、対称度合いが最も高いカメラを基準カメラに決定する。なお、最も高い対称度を持つカメラが複数ある場合は、その中からランダムに決定すればよい。   In step S807, the camera configuration determining unit 401 determines a reference camera for determining the characteristic-changed camera from all the installed cameras (here, 112a to 112e). Specifically, the camera having the highest degree of symmetry is determined as the reference camera with reference to the opposite camera symmetry information of each camera derived in S803. If there are a plurality of cameras having the highest degree of symmetry, the camera may be determined at random from among them.

S808では、カメラ構成決定部401が、S803で導出した対向カメラ対称度情報と、S804で導出した基線近接度情報とに基づき、特性変更カメラを決定する。この決定処理は、例えば、以下の1)〜3)のような手順で行われる。   In S808, the camera configuration determining unit 401 determines a characteristic-changed camera based on the on-coming camera symmetry information derived in S803 and the baseline proximity information derived in S804. This determination process is performed, for example, in the following procedures 1) to 3).

1)基準カメラの位置を確定し、当該基準カメラから時計回りに基準角度離れた位置の近くに存在する2台のカメラを検出する。なお、このときの基準カメラは、最初のループではS807で決定した基準カメラ、2回目以降のループではS810で更新した基準カメラである。また、上述の図7の例のように基準角度が360度の場合など一定条件下では、基準カメラ自身を検出対象の2台のカメラに含める。この一定条件は、設置カメラの台数やカメラ同士の間隔、基準角度などによって決まる。   1) The position of the reference camera is determined, and two cameras existing near a position separated by a reference angle clockwise from the reference camera are detected. The reference camera at this time is the reference camera determined in S807 in the first loop, and the reference camera updated in S810 in the second and subsequent loops. Further, under certain conditions such as when the reference angle is 360 degrees as in the example of FIG. 7, the reference camera itself is included in the two cameras to be detected. The fixed condition is determined by the number of installed cameras, the interval between cameras, a reference angle, and the like.

2)上記1)で検出した2台のカメラについて、どちらを特性変更カメラとするかを決めるための評価値を、以下の式(1)を用いてそれぞれ求める。
評価値 = 対向カメラ対称度×(1/基線近接度) ・・・式(1)
2) With respect to the two cameras detected in the above 1), an evaluation value for determining which of the two cameras is to be the characteristic-changed camera is obtained by using the following equation (1).
Evaluation value = Symmetry of facing camera × (1 / Baseline proximity) Expression (1)

3)上記2)で求めた2台のカメラについての評価値を比較し、評価値が大きい方のカメラを特性変更カメラに決定(評価値が小さい方のカメラは特性を変更しないカメラに決定)する。こうして、基準カメラに対応する1台の特性変更カメラが決定される。   3) The evaluation values of the two cameras obtained in the above 2) are compared, and the camera with the larger evaluation value is determined as the characteristic-changed camera (the camera with the smaller evaluation value is determined as the camera whose characteristics are not changed). I do. In this way, one characteristic-change camera corresponding to the reference camera is determined.

S809では、S801で取得した台数分の特性変更カメラが決定されたか否かが判定される。未決定分があればS810に進む。一方、全台数の特性変更カメラが決定していれば、S811に進む。   In step S809, it is determined whether or not the number of characteristic-change cameras corresponding to the number acquired in step S801 has been determined. If there is an undetermined portion, the process proceeds to S810. On the other hand, if all the characteristic-change cameras have been determined, the process advances to step S811.

S810では、基準カメラが更新される。具体的には、S808で評価値が大きいと判断された方のカメラ(特性変更カメラとして決定されたカメラ)を、新たな基準カメラに設定する。更新を終えるとS808に戻り、更新後の新たな基準カメラに基づいて次の特性変更カメラを決定する処理が続行される。   In S810, the reference camera is updated. Specifically, the camera determined to have a larger evaluation value in S808 (the camera determined as the characteristic-change camera) is set as a new reference camera. Upon completion of the update, the process returns to S808, and the process of determining the next characteristic-change camera based on the updated new reference camera is continued.

S811〜S815は、図5のフローのS508〜S512にそれぞれ対応し、特に異なるところはないので説明を省く。   Steps S811 to S815 correspond to steps S508 to S512 in the flow of FIG. 5, respectively, and there is no particular difference.

以上が、本実施形態に係る、画像処理システムの制御の流れである。これにより、ユーザが指定する台数だけカメラの特性を変更したカメラ群で構成されるシステムを構築できる。   The above is the control flow of the image processing system according to the present embodiment. As a result, it is possible to construct a system including a camera group in which the camera characteristics are changed by the number specified by the user.

<変形例>
本実施形態では、対向カメラ対称度と基線近接度を各カメラについて1度だけ導出しているが、これに限定されない。特性変更カメラを決定する度に、当該決定されたカメラを除外した残りのカメラについて対向カメラ対称度と基線近接度とを導出し直した上で、次の特性変更カメラの決定を行ってもよい。
<Modification>
In the present embodiment, the degree of symmetry of the opposite camera and the degree of base line proximity are derived only once for each camera, but the present invention is not limited to this. Each time the characteristic-changed camera is determined, the next characteristic-changed camera may be determined after re-deriving the opposite camera symmetry and the baseline proximity for the remaining cameras excluding the determined camera. .

また、特性変更カメラを決定する際に、基準カメラから基準角度離れた位置に近い2台のカメラを比較したが、当該位置の近傍にある3台以上のカメラを比較して、特性変更カメラを決定してもよい。   Further, when determining the characteristic-change camera, two cameras close to the position distant from the reference camera by the reference angle were compared, but three or more cameras near the position were compared, and the characteristic-change camera was compared. You may decide.

本実施形態によれば、設置されたカメラの中に、完全に対称な位置関係にあるカメラの組合せが存在しない場合においても、仮想視点画像の生成における視点の自由度と画質向上とを両立可能なシステムを構築することができる。   According to the present embodiment, even when there is no combination of cameras having a completely symmetrical positional relationship among the installed cameras, it is possible to achieve both the degree of freedom of the viewpoint and the improvement of the image quality in generating the virtual viewpoint image. System can be constructed.

<その他の実施例>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Examples>
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. It can also be realized by the following processing. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

Claims (19)

仮想視点画像を生成するための複数視点画像を取得するシステムであって、
所定の位置を異なる方向から撮像するように設置された複数のカメラを有し、
前記複数のカメラには、第一のカメラと、前記所定の位置を通り撮像フィールドに対して垂直な軸を中心とする、前記第一のカメラの2回対称の位置又は前記2回対称の位置に前記複数のカメラの中で最も近い位置に設置された第二のカメラ、とからなる少なくとも1組のカメラが含まれ、
前記第一のカメラと前記第二のカメラとでは、その特性を規定するパラメータのうち撮像画像におけるオブジェクトのテクスチャ解像度及びカメラの撮影範囲の少なくとも一方に影響するパラメータが異なる
ことを特徴とするシステム。
A system for acquiring a plurality of viewpoint images for generating a virtual viewpoint image,
Having a plurality of cameras installed to image a predetermined position from different directions,
The plurality of cameras include a first camera and a two-fold symmetrical position or the two-fold symmetrical position of the first camera about an axis passing through the predetermined position and perpendicular to an imaging field. A second camera located closest to the plurality of cameras, and at least one set of cameras,
A system wherein the first camera and the second camera are different in parameters that affect at least one of a texture resolution of an object in a captured image and a photographing range of the camera among parameters defining characteristics of the first camera and the second camera.
前記1組のカメラが、前記複数のカメラの中に複数含まれる場合、前記異なるパラメータを持つカメラ同士の間隔が略均等となるように、前記複数のカメラを構成する各カメラが配置されていることを特徴とする請求項1に記載のシステム。   When the set of cameras is included in the plurality of cameras, the cameras constituting the plurality of cameras are arranged such that the intervals between the cameras having the different parameters are substantially equal. The system of claim 1, wherein: 前記パラメータは、画角であることを特徴とする請求項1又は2に記載のシステム。   The system according to claim 1, wherein the parameter is an angle of view. 前記パラメータは、焦点距離であることを特徴とする請求項1乃至3のいずれか1項に記載のシステム。   The system according to any one of claims 1 to 3, wherein the parameter is a focal length. 前記パラメータは、撮像センサのサイズであることを特徴とする請求項1乃至4のいずれか1項に記載のシステム。   The system according to claim 1, wherein the parameter is a size of an image sensor. 前記パラメータは、撮像センサの種類であることを特徴とする請求項1乃至5のいずれか1項に記載のシステム。   The system according to claim 1, wherein the parameter is a type of an image sensor. 前記パラメータは、レンズの種類であることを特徴とする請求項1乃至6のいずれか1項に記載のシステム。   The system according to claim 1, wherein the parameter is a type of a lens. 撮像空間における所定の位置を異なる方向から撮像するように設置された複数のカメラの位置及び姿勢を示すカメラ情報を取得する第1の取得手段と、
前記所定の位置の位置情報を取得する第2の取得手段と、
前記第1の取得手段により取得されたカメラ情報と、前記第2の取得手段により取得された前記所定の位置の位置情報に基づき、前記複数のカメラのうち前記所定の位置を通り撮像フィールドに対して垂直な軸を中心とする2回対称の位置又は前記2回対称の位置に最も近い位置に設置された、第一のカメラと第二のカメラとからなる少なくとも1組のカメラにおいて、前記第一のカメラと前記第二のカメラとでは、カメラの特性を規定するパラメータのうち撮像画像におけるオブジェクトのテクスチャ解像度及びカメラの撮影範囲の少なくとも一方に影響するパラメータが異なるように、カメラ構成を決定する決定手段と、
を備えることを特徴とする装置。
First acquisition means for acquiring camera information indicating positions and orientations of a plurality of cameras installed so as to image a predetermined position in an imaging space from different directions;
Second acquisition means for acquiring position information of the predetermined position;
Based on the camera information obtained by the first obtaining unit and the position information of the predetermined position obtained by the second obtaining unit, the camera field passes through the predetermined position among the plurality of cameras and captures an image. At least one set of cameras, consisting of a first camera and a second camera, installed at a position symmetrical twice or about the position symmetrical about the vertical axis. The camera configuration is determined between the first camera and the second camera such that parameters that affect at least one of the texture resolution of the object in the captured image and the shooting range of the camera among the parameters defining the characteristics of the camera are different. Determining means;
An apparatus comprising:
前記決定手段は、各カメラの視線方向を示す二次元又は三次元の方向ベクトルに基づいて、前記決定を行うことを特徴とする請求項8に記載の装置。   The apparatus according to claim 8, wherein the determination unit performs the determination based on a two-dimensional or three-dimensional direction vector indicating a line-of-sight direction of each camera. 前記決定手段は、
前記複数のカメラのうち、前記異なるパラメータを持たせるカメラの台数の情報を取得し、
前記複数のカメラの各カメラについて、自カメラと他のカメラとの対称度合いを導出し、
導出した前記対称度合いに基づいて、前記1組のカメラのうちパラメータを異ならせるカメラを決定する
ことを特徴とする請求項8又は9に記載の装置。
The determining means comprises:
Of the plurality of cameras, obtain information on the number of cameras having the different parameters,
For each of the plurality of cameras, derive a degree of symmetry between the own camera and another camera,
The apparatus according to claim 8 or 9, wherein a camera having a different parameter among the one set of cameras is determined based on the derived degree of symmetry.
前記対称度合いは、自カメラと前記他のカメラとが前記所定の位置を通り撮像フィールドに対して垂直な軸を中心とする2回対称の位置関係にあるときに最大値をとることを特徴とする請求項10に記載の装置。   The degree of symmetry takes a maximum value when the own camera and the other camera are in a two-fold symmetrical positional relationship about an axis passing through the predetermined position and perpendicular to an imaging field. An apparatus according to claim 10, wherein 前記決定手段は、
前記複数のカメラのうち、前記異なるパラメータを持たせるカメラの台数の情報を取得し、
前記複数のカメラの各カメラについて、自カメラと他のカメラとの対称度合いを導出し、
前記複数の各カメラについて、自カメラから延びる前記所定の位置を通る基線と、前記所定の位置を挟んで対向する他のカメラから延びる前記所定の位置を通る基線との近接度合いを導出し、
導出した前記対称度合いと前記近接度合いとに基づいて、前記1組のカメラのうちパラメータを異ならせるカメラを決定する
ことを特徴とする請求項8又は9に記載の装置。
The determining means comprises:
Of the plurality of cameras, obtain information on the number of cameras having the different parameters,
For each of the plurality of cameras, derive a degree of symmetry between the own camera and another camera,
For each of the plurality of cameras, a base line passing through the predetermined position extending from the own camera and a proximity degree between the base line passing through the predetermined position extending from another camera facing the predetermined position are derived.
The apparatus according to claim 8, wherein a camera having a different parameter among the one set of cameras is determined based on the derived degree of symmetry and degree of proximity.
前記近接度合いは、自カメラの基線を基準として、隣り合う他のカメラの基線との間隔が狭いほど、より高い近接度合いとなることを特徴とする請求項12に記載の装置。   13. The apparatus according to claim 12, wherein the degree of proximity becomes higher as the distance between the base line of the own camera and the base line of another adjacent camera is smaller. 前記決定手段は、
前記対称度合いに基づき、前記複数のカメラの中から基準カメラを決定し、
決定した前記基準カメラの位置から所定の基準角度離れた位置の近くに存在する少なくとも2台のカメラを検出し、
検出した少なくとも2台のカメラから、前記パラメータを異ならせるカメラを前記近接度合いに基づき決定する
ことを特徴とする請求項12又は13に記載の装置。
The determining means comprises:
Based on the degree of symmetry, determine a reference camera from among the plurality of cameras,
Detecting at least two cameras existing near a position separated by a predetermined reference angle from the determined position of the reference camera,
14. The apparatus according to claim 12, wherein a camera having a different parameter is determined based on the degree of proximity from at least two detected cameras. 15.
前記決定手段は、
前記複数のカメラのうち前記基準カメラとなり得るすべてのカメラを、前記基準カメラとして順に決定し、
前記パラメータを異ならせるカメラの配置が、仮想視点の設定可能な範囲内で最も均等に近くなるように、カメラ構成を決定する
ことを特徴とする請求項14に記載の装置。
The determining means comprises:
All the cameras that can be the reference camera among the plurality of cameras are sequentially determined as the reference camera,
The apparatus according to claim 14, wherein the camera configuration is determined such that the arrangement of the cameras for which the parameters are different is closest to the most uniform within a settable range of the virtual viewpoint.
前記決定手段によって前記パラメータを異ならせるカメラに決定されたカメラについて、そのパラメータを変更する制御手段をさらに備えたことを特徴とする請求項8乃至15のいずれか1項に記載の装置。   The apparatus according to any one of claims 8 to 15, further comprising control means for changing a parameter of the camera determined as a camera having the different parameter by the determination means. 前記制御手段は、さらに、
前記複数のカメラに対し撮像を指示して、複数視点画像を取得し、
取得した前記複数視点画像に基づき、オブジェクトの形状推定を行って三次元形状データを生成し、
前記複数視点画像と前記三次元形状データに基づいて、仮想視点画像を生成する
ことを特徴とする請求項16に記載の装置。
The control means further comprises:
Instructing the plurality of cameras to capture images to obtain a plurality of viewpoint images,
Based on the acquired multi-viewpoint image, perform three-dimensional shape data by performing shape estimation of the object,
The apparatus according to claim 16, wherein a virtual viewpoint image is generated based on the plurality of viewpoint images and the three-dimensional shape data.
複数のカメラを用いて、仮想視点画像を生成するための複数視点画像を取得するシステムにおけるカメラ構成を決定する方法であって、
前記システムには、
所定の位置を異なる方向から撮像するように設置された複数のカメラを有し、
前記複数のカメラには、第一のカメラと、前記所定の位置を通り撮像フィールドに対して垂直な軸を中心とする、前記第一のカメラの2回対称の位置又は前記2回対称の位置に前記複数のカメラの中で最も近い位置に設置された第二のカメラ、とからなる少なくとも1組のカメラが含まれ、
前記方法は、
前記複数のカメラの位置及び姿勢を示すカメラ情報を取得するステップと、
前記複数のカメラのうち前記第一のカメラと前記第二のカメラとを決定するステップと、
カメラの特性を規定するパラメータのうち撮像画像におけるオブジェクトのテクスチャ解像度及びカメラの撮影範囲の少なくとも一方に影響するパラメータについて、前記第一のカメラと前記第二のカメラとで異なるパラメータを設定するステップと、
を含む
ことを特徴とする方法。
A method for determining a camera configuration in a system that acquires a plurality of viewpoint images for generating a virtual viewpoint image using a plurality of cameras,
The system includes:
Having a plurality of cameras installed to image a predetermined position from different directions,
The plurality of cameras include a first camera and a two-fold symmetrical position or the two-fold symmetrical position of the first camera about an axis passing through the predetermined position and perpendicular to an imaging field. A second camera located closest to the plurality of cameras, and at least one set of cameras,
The method comprises:
Obtaining camera information indicating the position and orientation of the plurality of cameras;
Determining the first camera and the second camera among the plurality of cameras;
Setting parameters that differ between the first camera and the second camera, for parameters that affect at least one of the texture resolution of the object in the captured image and the shooting range of the camera among the parameters that define the characteristics of the camera. ,
A method comprising:
コンピュータを、請求項8乃至17のいずれか1項に記載の装置として機能させるプログラム。   A program for causing a computer to function as the device according to any one of claims 8 to 17.
JP2018121985A 2018-06-27 2018-06-27 IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM Active JP7154841B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018121985A JP7154841B2 (en) 2018-06-27 2018-06-27 IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM
PCT/JP2019/024218 WO2020004162A1 (en) 2018-06-27 2019-06-19 Imaging system, arrangement determination device, arrangement determination method, and program
US17/126,979 US11297301B2 (en) 2018-06-27 2020-12-18 Image capturing system, arrangement determination apparatus, arrangement determination method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018121985A JP7154841B2 (en) 2018-06-27 2018-06-27 IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM

Publications (3)

Publication Number Publication Date
JP2020005089A true JP2020005089A (en) 2020-01-09
JP2020005089A5 JP2020005089A5 (en) 2021-08-05
JP7154841B2 JP7154841B2 (en) 2022-10-18

Family

ID=69100564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018121985A Active JP7154841B2 (en) 2018-06-27 2018-06-27 IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7154841B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032468A1 (en) * 2021-08-31 2023-03-09 富士フイルム株式会社 Imaging control device, imaging control method, and imaging control program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154052A (en) * 2008-12-24 2010-07-08 Hitachi Ltd System for controlling a plurality of cameras
US20160205341A1 (en) * 2013-08-20 2016-07-14 Smarter Tv Ltd. System and method for real-time processing of ultra-high resolution digital video
JP2018056971A (en) * 2016-09-30 2018-04-05 キヤノン株式会社 Imaging system, image processing device, image processing method, and program
WO2018088037A1 (en) * 2016-11-14 2018-05-17 ソニー株式会社 Control device for mobile imaging device, control method for mobile imaging device and program
JP2018092491A (en) * 2016-12-06 2018-06-14 キヤノン株式会社 Information processing apparatus, control method therefor, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154052A (en) * 2008-12-24 2010-07-08 Hitachi Ltd System for controlling a plurality of cameras
US20160205341A1 (en) * 2013-08-20 2016-07-14 Smarter Tv Ltd. System and method for real-time processing of ultra-high resolution digital video
JP2018056971A (en) * 2016-09-30 2018-04-05 キヤノン株式会社 Imaging system, image processing device, image processing method, and program
WO2018088037A1 (en) * 2016-11-14 2018-05-17 ソニー株式会社 Control device for mobile imaging device, control method for mobile imaging device and program
JP2018092491A (en) * 2016-12-06 2018-06-14 キヤノン株式会社 Information processing apparatus, control method therefor, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032468A1 (en) * 2021-08-31 2023-03-09 富士フイルム株式会社 Imaging control device, imaging control method, and imaging control program

Also Published As

Publication number Publication date
JP7154841B2 (en) 2022-10-18

Similar Documents

Publication Publication Date Title
JP7051457B2 (en) Image processing equipment, image processing methods, and programs
US20200265633A1 (en) Image processing apparatus, image processing method, and storage medium
US10970915B2 (en) Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium
US9600714B2 (en) Apparatus and method for calculating three dimensional (3D) positions of feature points
US10789765B2 (en) Three-dimensional reconstruction method
JP2019075082A (en) Video processing method and device using depth value estimation
KR20150050172A (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
KR20160094190A (en) Apparatus and method for tracking an eye-gaze
JP2018106496A (en) Image processing apparatus, image processing method, and program
US11297301B2 (en) Image capturing system, arrangement determination apparatus, arrangement determination method, and storage medium
JP2019083402A (en) Image processing apparatus, image processing system, image processing method, and program
CN110956695B (en) Information processing apparatus, information processing method, and storage medium
JP2004235934A (en) Calibration processor, calibration processing method, and computer program
JP2018113683A (en) Image processing apparatus, image processing method, and program
US20180367709A1 (en) Image processing apparatus, object shape estimation method, and storage medium
TWI528783B (en) Methods and systems for generating depth images and related computer products
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
JP7154841B2 (en) IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM
JP6602412B2 (en) Information processing apparatus and method, information processing system, and program.
KR102298047B1 (en) Method of recording digital contents and generating 3D images and apparatus using the same
JP2019067419A (en) Image processing device, image processing method, and program
US20220408069A1 (en) Information processing apparatus, information processing method, and storage medium
KR101960018B1 (en) Method and Apparatus for determining Front Sensor Geometry
WO2023199583A1 (en) Viewer control method and information processing device
WO2022176719A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221005

R151 Written notification of patent or utility model registration

Ref document number: 7154841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151