JP2019067419A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2019067419A
JP2019067419A JP2018210899A JP2018210899A JP2019067419A JP 2019067419 A JP2019067419 A JP 2019067419A JP 2018210899 A JP2018210899 A JP 2018210899A JP 2018210899 A JP2018210899 A JP 2018210899A JP 2019067419 A JP2019067419 A JP 2019067419A
Authority
JP
Japan
Prior art keywords
image
imaging
imaging device
area
imaging devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018210899A
Other languages
Japanese (ja)
Inventor
希名 板倉
Kina Itakura
希名 板倉
達朗 小泉
Tatsuro Koizumi
達朗 小泉
香織 田谷
Kaori Taya
香織 田谷
州吾 樋口
Shugo Higuchi
州吾 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018210899A priority Critical patent/JP2019067419A/en
Publication of JP2019067419A publication Critical patent/JP2019067419A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing device capable of obtaining well-balanced image quality in a subject existing in various positions in a photographic space, when generating a reconstructed image from a virtual viewpoint.SOLUTION: An imaging system 100 acquires a plurality of image data obtained on the basis of imaging by a plurality of imaging apparatuses 102 installed so as to image a first position 101 and a plurality of image data obtained on the basis of imaging by a plurality of imaging apparatuses 104 installed so as to image a second position 103. The three-dimensional shape data of the subject used for the generation of a virtual viewpoint image is generated on the basis of the plurality of image data of at least one of images obtained by imaging the first position and the second position. At least one of the plurality of imaging apparatuses for imaging the first position is installed closer to the second position than the first position. At least one of the plurality of imaging apparatuses for imaging the second position is installed closer to the first position than the second position.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

被写体を複数の撮像装置で撮像して得られた画像から、任意の仮想視点から被写体を観察した際に得られる画像を再構成する技術が知られている。例えば、特許文献1には、以下の方法が開示されている。まず、複数のカメラにより撮像された被写体の撮像画像を用いて、被写体の三次元モデルを作成する。次に、三次元モデル上の各位置のテクスチャ画像を、複数の撮像画像をブレンドすることにより生成する。こうして生成された三次元モデルとテクスチャ画像とに基づいて、カメラが配置されていない仮想視点からの画像を再構成することができる。   There is known a technique for reconstructing an image obtained when an object is observed from an arbitrary virtual viewpoint from images obtained by imaging the object with a plurality of imaging devices. For example, Patent Document 1 discloses the following method. First, a three-dimensional model of the subject is created using captured images of the subject captured by a plurality of cameras. Next, a texture image of each position on the three-dimensional model is generated by blending a plurality of captured images. Based on the three-dimensional model and the texture image thus generated, it is possible to reconstruct an image from a virtual viewpoint in which no camera is arranged.

特許文献1では、40台のカメラを被写体を取り囲むように被写体に向けて設置する例が示されている。一方、特許文献2には、再構成画像の精度を向上させるために、被写体の上に被写体に向けて設置された天頂カメラをさらに用いる方法が提案されている。   Patent Document 1 shows an example in which 40 cameras are installed toward a subject so as to surround the subject. On the other hand, Patent Document 2 proposes a method of further using a zenith camera installed on a subject toward the subject in order to improve the accuracy of the reconstructed image.

特開2010−020487号公報Unexamined-Japanese-Patent No. 2010-020487 特開2010−039501号公報JP, 2010-039501, A

特許文献1,2の方法は、所定位置に存在する被写体の再構成画像を生成するために適している。しかしながら、スポーツ撮影等、被写体が広い空間(例えば競技フィールド)に散らばって動いている場合に適用する際には、特許文献1,2の方法は課題を有していた。例えば、特許文献2に従って各カメラをフィールドの中央に向けて設置した場合、フィールドの中央にいる被写体に関しては、高品質な再構成画像を生成することができる。一方で、フィールドの端部にいる被写体に関しては、この被写体を写すカメラの数が限られ、再構成画像が得られないか又は品質が低下する可能性がある。   The methods of Patent Documents 1 and 2 are suitable for generating a reconstructed image of an object present at a predetermined position. However, the methods of Patent Documents 1 and 2 have problems when applied to a case where a subject is scattered and moving in a wide space (for example, a competition field), such as sports photography. For example, when each camera is installed toward the center of the field according to Patent Document 2, a high quality reconstructed image can be generated for an object located at the center of the field. On the other hand, with regard to the subject at the end of the field, the number of cameras that capture this subject is limited, and a reconstructed image may not be obtained or the quality may be degraded.

本発明は、仮想視点からの再構成画像を生成した際に、撮影空間中の様々な位置に存在する被写体についてバランスの取れた画像品質が得られるような、画像処理装置を提供することを目的とする。   An object of the present invention is to provide an image processing apparatus capable of obtaining balanced image quality with respect to objects present at various positions in a photographing space when generating a reconstructed image from a virtual viewpoint. I assume.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。すなわち、
第1の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、前記第1の位置とは異なる第2の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、を取得する取得手段と、
前記第1の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと前記第2の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データのうち少なくとも一方の複数の画像データに基づいて、仮想視点画像の生成に用いられる被写体の3次元形状データを生成する形状生成手段と、を有し、
前記第1の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第1の位置よりも前記第2の位置の近くに設置され、
前記第2の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第2の位置よりも前記第1の位置の近くに設置されていることを特徴とする。
In order to achieve an object of the present invention, for example, an image processing apparatus of the present invention has the following configuration. That is,
A plurality of image data obtained based on imaging by a plurality of imaging devices installed to image a first position, and a plurality of images installed to image a second position different from the first position Acquisition means for acquiring a plurality of image data obtained based on imaging by the imaging device of
Based on imaging by a plurality of image data obtained based on imaging by a plurality of imaging devices installed to image the first position and imaging by a plurality of imaging devices installed to image the second position And shape generation means for generating three-dimensional shape data of a subject used for generating a virtual viewpoint image based on at least one of a plurality of image data among a plurality of image data obtained.
At least one imaging device among a plurality of imaging devices installed to image the first position is installed closer to the second position than the first position,
At least one imaging device among a plurality of imaging devices installed to image the second position is installed closer to the first position than the second position. .

仮想視点からの再構成画像を生成した際に、撮影空間中の様々な位置に存在する被写体についてバランスの取れた画像品質が得られるような、画像処理装置を提供することができる。   It is possible to provide an image processing apparatus in which balanced image quality can be obtained for objects present at various positions in the imaging space when a reconstructed image from a virtual viewpoint is generated.

実施形態1に係る撮像システムの構成例を示す図。FIG. 1 is a view showing an example of the arrangement of an imaging system according to the first embodiment; 実施形態2に係る撮像システムの構成例を示す図。FIG. 7 is a view showing an example of the arrangement of an imaging system according to the second embodiment; 実施形態3に係る撮像システムの構成例を示す図。FIG. 7 is a view showing an example of the arrangement of an imaging system according to the third embodiment; 実施形態3に係る撮像システムの構成例を示す図。FIG. 7 is a view showing an example of the arrangement of an imaging system according to the third embodiment; 実施形態4に係る画像処理装置のハードウェア構成例を示す図。FIG. 14 is a diagram showing an example of the hardware configuration of an image processing apparatus according to a fourth embodiment. 実施形態4に係る画像処理装置の機能構成例を示す図。FIG. 13 is a block diagram showing an example of the functional arrangement of an image processing apparatus according to the fourth embodiment; 実施形態4に係る画像処理方法における処理例を示すフローチャート。10 is a flowchart illustrating an example of processing in an image processing method according to a fourth embodiment.

以下、本発明の実施形態を図面に基づいて説明する。ただし、本発明の範囲は以下の実施形態に限定されるものではない。例えば、撮影空間の任意の場所に存在する被写体について再構成画像を生成することを可能とするために、焦点距離の短い(画角の広い)カメラを、撮影空間を取り囲むように設置することができる。一方、カメラの焦点距離を短くすると、撮像画像上の被写体が小さくなるため、再構成画像の品質が低下することも考えられる。   Hereinafter, embodiments of the present invention will be described based on the drawings. However, the scope of the present invention is not limited to the following embodiments. For example, in order to make it possible to generate a reconstructed image for an object present anywhere in the imaging space, a camera with a short focal length (wide angle of view) may be installed so as to surround the imaging space it can. On the other hand, if the focal length of the camera is shortened, the quality of the reconstructed image may be reduced because the subject on the captured image becomes smaller.

以下の実施形態では、被写体を撮像するカメラの数が少ないことに由来して品質低下が起きる撮影領域を減らすこと(以下、視点の自由度の向上と呼ぶ)を考慮してカメラが設置される。また、以下の実施形態では、撮像画像上の被写体像が小さいことに由来する品質低下の抑制(以下、画質の向上と呼ぶ)も考慮してカメラが配置される。   In the following embodiments, the camera is installed in consideration of reducing the imaging area where the quality deterioration occurs due to the small number of cameras imaging the subject (hereinafter referred to as improvement of the degree of freedom of the viewpoint). . Further, in the following embodiments, the camera is disposed in consideration of suppression of quality deterioration (hereinafter, referred to as improvement in image quality) caused by the small object image on the captured image.

[実施形態1]
実施形態1に係る撮像システム100について図1を参照して説明する。撮像システム100は、複数の撮像装置102,104を備え、自由視点画像を生成するために、複数の撮像装置102,104のそれぞれを用いて撮像画像を取得する。自由視点画像とは、任意に設定された仮想視点からの再構成画像のことを指す。撮像装置102,104は、被写体が存在する撮影空間を取り囲むように、撮影空間に向けて配置されている。例えば、撮像装置102,104を、撮影フィールド108(例えば競技グラウンド)を取り囲むように設置することができる。
Embodiment 1
An imaging system 100 according to the first embodiment will be described with reference to FIG. The imaging system 100 includes a plurality of imaging devices 102 and 104, and acquires a captured image using each of the plurality of imaging devices 102 and 104 in order to generate a free viewpoint image. A free viewpoint image refers to a reconstructed image from an arbitrarily set virtual viewpoint. The imaging devices 102 and 104 are disposed toward the imaging space so as to surround the imaging space in which the subject is present. For example, the imaging devices 102, 104 can be placed to surround the imaging field 108 (e.g., a competition ground).

撮像システム100が備える複数の撮像装置102,104は、1以上の撮像装置で構成される第1の撮像装置群102と、1以上の撮像装置で構成される第2の撮像装置群104と、を含む。第1の撮像装置群102は、第1の注視点101に向けて設置されている。また、第2の撮像装置群104は、第1の注視点101とは異なる第2の注視点103に向けて設置されている。注視点とは、撮影空間上に設置される任意の点である。本実施形態において、被写体は撮影フィールド108上に存在し、注視点も撮影フィールド108上に設定され、具体的には注視点は撮像装置の光軸と撮影フィールド108との交点に位置する。しかしながら、注視点は空中に設定されてもよい。   The plurality of imaging devices 102 and 104 included in the imaging system 100 includes a first imaging device group 102 including one or more imaging devices, and a second imaging device group 104 including one or more imaging devices. including. The first imaging device group 102 is installed toward the first gaze point 101. Further, the second imaging device group 104 is installed toward the second gaze point 103 different from the first gaze point 101. The gaze point is an arbitrary point set on the imaging space. In the present embodiment, the subject is present on the imaging field 108, and the gaze point is also set on the imaging field 108. Specifically, the gaze point is located at the intersection of the optical axis of the imaging apparatus and the imaging field 108. However, the fixation point may be set in the air.

一実施形態において、第1の撮像装置群102は、第1の注視点101にフォーカスが合うように第1の注視点101に向けて設置され、第2の撮像装置群104は、第2の注視点103にフォーカスが合うように第2の注視点103に向けて設置される。しかしながら、例えば撮像装置の被写界深度が深い場合、撮像装置のフォーカスを注視点に正確に合わせる必要はない。   In one embodiment, the first imaging device group 102 is installed toward the first gaze point 101 so that the first fixation point 101 is in focus, and the second imaging device group 104 is a second imaging device group. It is installed toward the second fixation point 103 so that the fixation point 103 is in focus. However, for example, when the depth of field of the imaging device is deep, it is not necessary to accurately bring the imaging device into focus.

第1の撮像装置群102は、撮影フィールド上の第1の領域105が視野内に入るように設置されている。言い換えれば、第1の領域105は、第1の撮像装置群102の共通視野領域である。また、第2の撮像装置群104は、撮影フィールド上の第2の領域106が視野内に入るように設置されている。言い換えれば、第2の領域106は、第2の撮像装置群104の共通視野領域である。このような構成によれば、第1の撮像装置群102は少なくとも第1の領域105上の被写体を撮像することができる。また、第2の撮像装置群104は少なくとも第2の領域106上の被写体を撮像することができる。   The first imaging device group 102 is installed so that the first area 105 on the imaging field is in the field of view. In other words, the first area 105 is a common visual field area of the first imaging device group 102. In addition, the second imaging device group 104 is installed so that the second area 106 on the imaging field falls within the field of view. In other words, the second area 106 is a common visual field area of the second imaging device group 104. According to such a configuration, the first imaging device group 102 can capture an object on at least the first area 105. In addition, the second imaging device group 104 can capture an object on at least the second area 106.

第1の撮像装置群102及び第2の撮像装置群104は、それぞれ撮影フィールド108を取り囲むように設置されている。また、第1の撮像装置群102は第1の注視点101を取り囲むように設置されている。例えば図1において、第1の撮像装置群102のうちの少なくとも1つの撮像装置102aは、第1の領域105よりも第2の領域106に近接している。また、撮像装置102aは、第1の注視点101よりも第2の注視点103に近接している。このような構成によれば、第1の撮像装置群102は第1の領域105上の被写体を様々な方向から撮像することができる。一方、第2の撮像装置群104は第2の注視点101を取り囲むように設置されている。例えば図1において、第2の撮像装置群104のうちの少なくとも1つの撮像装置104aは、第2の領域106よりも第1の領域105に近接している。また、撮像装置104aは、第2の注視点103よりも第1の注視点101に近接している。このような構成によれば、第2の撮像装置群104は第2の領域106上の被写体を様々な方向から撮像することができる。   The first imaging device group 102 and the second imaging device group 104 are installed so as to surround the imaging field 108, respectively. Also, the first imaging device group 102 is installed so as to surround the first fixation point 101. For example, in FIG. 1, at least one imaging device 102 a of the first imaging device group 102 is closer to the second region 106 than the first region 105. The imaging device 102 a is closer to the second gaze point 103 than the first gaze point 101. According to such a configuration, the first imaging device group 102 can capture an object on the first area 105 from various directions. On the other hand, the second imaging device group 104 is installed so as to surround the second fixation point 101. For example, in FIG. 1, at least one imaging device 104 a of the second imaging device group 104 is closer to the first region 105 than the second region 106. Further, the imaging device 104 a is closer to the first fixation point 101 than the second fixation point 103. According to such a configuration, the second imaging device group 104 can capture an object on the second area 106 from various directions.

本実施形態において、第1の領域105及び第2の領域106は、撮影フィールド108のほぼ全体をカバーしている。例えば、第1の領域105と第2の領域106との和が撮影フィールド108に占める割合は、一実施形態において80%以上であり、他の実施形態において90%以上であり、別の実施形態において95%以上であり、さらなる実施形態において100%である。このような構成により、撮影フィールド108の様々な位置に存在する被写体について、少なくとも第1の撮像装置群102又は第2の撮像装置群104のいずれかが様々な方向から撮像画像を撮像することができる。このため、撮影フィールド108の様々な位置に存在する被写体の再構成画像を生成することができ、すなわち視点の自由度を向上させることができる。別の実施形態において、さらに撮影フィールド108上のさらなる領域が視野内に入るように設置された撮像装置群を設けることもできる。この場合、それぞれの撮像装置群の共通視野領域が撮影フィールド108のほぼ全体をカバーするように撮像システムを構成できる。   In the present embodiment, the first area 105 and the second area 106 cover substantially the entire imaging field 108. For example, the ratio of the sum of the first area 105 and the second area 106 to the imaging field 108 is 80% or more in one embodiment, 90% or more in another embodiment, and another embodiment. And 95% or higher, and in a further embodiment 100%. With such a configuration, at least the first imaging device group 102 or the second imaging device group 104 can capture a captured image from various directions with respect to subjects present at various positions of the imaging field 108. it can. Therefore, it is possible to generate reconstructed images of subjects present at various positions of the imaging field 108, that is, to improve the degree of freedom of the viewpoint. In another embodiment, it is also possible to provide an imaging device group installed so that a further area on the imaging field 108 falls within the field of view. In this case, the imaging system can be configured such that the common viewing area of each imaging device group covers substantially the entire imaging field 108.

また、本実施形態において、第1の領域105と第2の領域106との共通領域107は小さい。共通領域107が第1の領域105と第2の領域106との和に占める割合は、一実施形態において30%以下であり、他の実施形態において20%以下であり、別の実施形態において10%以下であり、さらなる実施形態において5%以下である。さらに、本実施形態において、第1の領域105の重心は第2の領域106に含まれない。また、第2の領域106の重心は第1の領域105に含まれない。このように、第1の領域105及び第2の領域106を狭くすることにより、第1の撮像装置群102及び第2の撮像装置群104の画角を狭くすることが可能となり、すなわち画質の向上を実現することができる。   Further, in the present embodiment, the common area 107 between the first area 105 and the second area 106 is small. The ratio of the common area 107 to the sum of the first area 105 and the second area 106 is 30% or less in one embodiment, 20% or less in another embodiment, and 10 in another embodiment. % Or less, and in a further embodiment 5% or less. Furthermore, in the present embodiment, the center of gravity of the first area 105 is not included in the second area 106. Also, the center of gravity of the second area 106 is not included in the first area 105. Thus, by narrowing the first area 105 and the second area 106, it is possible to narrow the angle of view of the first imaging device group 102 and the second imaging device group 104, that is, the image quality can be reduced. An improvement can be realized.

一実施形態において、第1の領域105の大きさに応じて、第1の撮像装置群102に含まれる撮像装置の数を決定してもよい。すなわち、第1の領域105が大きいほど、撮像装置の数を増やすことができる。第2の領域106についても同様である。   In one embodiment, the number of imaging devices included in the first imaging device group 102 may be determined according to the size of the first area 105. That is, as the first region 105 is larger, the number of imaging devices can be increased. The same applies to the second region 106.

従来技術によれば、各撮像装置の注視点が撮影フィールド108の中心に設定されていた。このため、撮影フィールド108の周辺部に存在する被写体は少数の撮像装置でしか撮像できず、この被写体の再構成画像を生成できないことがあった。一方、本実施形態によれば、撮影フィールド108のより広い領域において、被写体を所定数以上の撮像装置で撮像することができ、この被写体の再構成画像を生成することが可能となる。すなわち、視点の自由度を向上させることができる。本実施形態によれば、撮影フィールド108の中心に存在する被写体を撮像できる撮像装置の数は従来技術と比較して減るかもしれないが、依然としてこの被写体について十分な品質の再構成画像を生成することができると考えられる。すなわち、画質を維持することができる。   According to the prior art, the fixation point of each imaging device is set at the center of the imaging field 108. For this reason, the subject existing in the peripheral portion of the shooting field 108 can be imaged only by a small number of imaging devices, and a reconstructed image of the subject may not be generated. On the other hand, according to the present embodiment, in a wider area of the imaging field 108, the subject can be imaged by a predetermined number or more of imaging devices, and it becomes possible to generate a reconstructed image of the subject. That is, the degree of freedom of the viewpoint can be improved. According to the present embodiment, the number of imaging devices capable of imaging an object present at the center of the imaging field 108 may be reduced compared to the prior art, but still generates reconstructed images of sufficient quality for this object. It is thought that can be done. That is, the image quality can be maintained.

[実施形態2]
実施形態1では、複数の撮像装置102,104は、第1又は第2の注視点101,103のいずれかを向くように設置された。撮像装置の設置方法はこれに限定されない。例えば、撮影空間の様々な方向に向けて複数の撮像装置を設置することにより、撮影空間内のより広い領域において、被写体を所定数以上の撮像装置で撮像することができ、すなわち視点の自由度を向上させることができる。また、このような構成によれば、撮影空間全体をカバーするように撮像装置の画角を広くする必要はなく、すなわち画質の向上を実現することができる。このように、第1の注視点に向けて設置された1以上の撮像装置で構成される第1の撮像装置群と、第1の注視点とは異なる第2の注視点に向けて設置された1以上の撮像装置とを用いることにより、視点の自由度と画質との両立を図ることができる。実施形態2では、このような構成の一例について説明する。
Second Embodiment
In the first embodiment, the plurality of imaging devices 102 and 104 are installed to face either the first or second gaze point 101 or 103. The installation method of the imaging device is not limited to this. For example, by installing a plurality of imaging devices in various directions in the imaging space, a subject can be imaged by a predetermined number or more of imaging devices in a wider area in the imaging space, that is, the degree of freedom of the viewpoint Can be improved. Moreover, according to such a configuration, it is not necessary to widen the angle of view of the imaging device so as to cover the entire imaging space, that is, improvement in image quality can be realized. Thus, the first imaging device group including one or more imaging devices installed toward the first fixation point, and the second imaging point different from the first fixation point are installed By using one or more imaging devices, it is possible to achieve both the freedom of the viewpoint and the image quality. In the second embodiment, an example of such a configuration will be described.

実施形態2に係る撮像システム200について図2を参照して説明する。撮像システム200は、実施形態1と同様に複数の撮像装置202,204,206を備え、それぞれを用いて自由視点画像を生成するための複数の撮像画像を取得する。以下では、実施形態1と異なる点について説明する。   An imaging system 200 according to the second embodiment will be described with reference to FIG. The imaging system 200 includes a plurality of imaging devices 202, 204, and 206 as in the first embodiment, and acquires a plurality of captured images for generating a free viewpoint image using each of the imaging devices. The differences from the first embodiment will be described below.

撮像システム200は、第1の注視点201に向けて設置された1以上の撮像装置で構成される第1の撮像装置群202と、第1の注視点201とは異なる第2の注視点203に向けて設置された第2の撮像装置群204とを備える。撮像システム200はさらに、第1及び第2の注視点201,203とは異なる第3の注視点205に向けて設置された、第3の撮像装置群206を備える。そして、第1、第2、及び第3の注視点201,203,205は、撮影空間上に設けられた線分210上に存在する。図2の例において、第1、第2、及び第3の注視点201,203,205は、撮影フィールド108上に設けられた線分210上に存在する。   The imaging system 200 includes a first imaging device group 202 including one or more imaging devices installed toward the first fixation point 201, and a second fixation point 203 different from the first fixation point 201. And a second imaging device group 204 installed toward the The imaging system 200 further includes a third imaging device group 206 installed toward a third fixation point 205 different from the first and second fixation points 201 and 203. The first, second, and third gaze points 201, 203, and 205 exist on a line segment 210 provided on the imaging space. In the example of FIG. 2, the first, second, and third gaze points 201, 203, 205 exist on a line segment 210 provided on the imaging field 108.

このような構成によれば、従来技術のように各撮像装置の注視点が撮影フィールド108の中心にある場合と比較して、被写体を所定数以上の撮像装置で撮像できる領域を線分に沿って広げることができる。このため、視点の自由度を向上させることができる。特に、被写体が一定の方向に動く傾向がある場合、この方向に合わせて線分を設定することにより、被写体が動いても視点の自由度を保つことができる。   According to such a configuration, as compared with the case where the fixation point of each imaging device is at the center of the imaging field 108 as in the prior art, the area where the object can be imaged by a predetermined number or more of imaging devices Can spread. Therefore, the degree of freedom of the viewpoint can be improved. In particular, when the subject tends to move in a certain direction, by setting the line segment in accordance with this direction, the degree of freedom of the viewpoint can be maintained even if the subject moves.

第1、第2、及び第3の撮像装置群202,204,206は、線分210上の各点にある被写体が少なくとも2群以上のカメラから見えるように、配置することができる。図2においては、注視点203,205を結ぶ線分上に注視点201が存在する。この場合、撮像装置202が注視点201を向き、撮像装置204が注視点203を向き、撮像装置206が注視点205を向くように、各撮像装置を設置することができる。ここで、線分の一端である注視点205に近い撮像装置204は、線分の他端である注視点203に向けて設置されている。また、線分の一端である注視点203に近い撮像装置206は、線分の他端である注視点205に向けて設置されている。このように、撮像装置をより離れた注視点に向けて設置することにより、より広い領域において複数の撮像装置により被写体を撮像することが可能となり、視点の自由度を向上させることができる。   The first, second, and third imaging device groups 202, 204, and 206 can be arranged such that an object at each point on the line segment 210 can be viewed by at least two or more cameras. In FIG. 2, the gaze point 201 exists on a line connecting the gaze points 203 and 205. In this case, each imaging device can be installed such that the imaging device 202 faces the gaze point 201, the imaging device 204 faces the gaze point 203, and the imaging device 206 faces the gaze point 205. Here, the imaging device 204 near the fixation point 205 which is one end of the line segment is installed toward the fixation point 203 which is the other end of the line segment. Further, the imaging device 206 near the fixation point 203 which is one end of the line segment is installed toward the fixation point 205 which is the other end of the line segment. As described above, by setting the imaging device to a distant gaze point, it is possible to capture an object by a plurality of imaging devices in a wider area, and the degree of freedom of the viewpoint can be improved.

図2には1つの線分210を設ける場合を示すが、撮影空間上に2以上の線分を設定することもできる。例えば、撮影フィールド108上に、線分210に直交する新たな線分を設け、新たな線分上の各注視点に向けて撮像装置を設置することにより、撮影フィールド108上のより広い範囲において被写体の再構成画像を生成することが可能となる。   Although the case where one line segment 210 is provided is shown in FIG. 2, two or more line segments can be set in the imaging space. For example, by providing a new line segment orthogonal to the line segment 210 on the shooting field 108 and installing an imaging device toward each gaze point on the new line segment, a wider range on the shooting field 108 It is possible to generate a reconstructed image of the subject.

また、図1において、第1の撮像装置群102を構成する撮像装置の注視点をずらしてもよい。例えば、第1の撮像装置群102に、第1の注視点101に向けて設置された1以上の撮像装置と、第1の注視点101を含む線分の一端に向けて設置された1以上の撮像装置と、この線分の他端に向けて設置された1以上の撮像装置と、が含まれてもよい。第2の撮像装置群104についても同様である。   Further, in FIG. 1, the fixation point of the imaging devices constituting the first imaging device group 102 may be shifted. For example, in the first imaging device group 102, one or more imaging devices installed toward the first gaze point 101, and one or more installed toward one end of the line segment including the first gaze point 101. And one or more imaging devices installed toward the other end of the line segment. The same applies to the second imaging device group 104.

[実施形態1,2の変形例]
実施形態1,2において、各撮像装置の焦点距離(画角)は同じであってもよい。一方で、各撮像装置の焦点距離(画角)を変えることにより、仮想視点の位置によらず再構成画像の画質を維持することができる。
Modification of Embodiments 1 and 2
In the first and second embodiments, the focal length (field angle) of each imaging device may be the same. On the other hand, by changing the focal length (field angle) of each imaging device, it is possible to maintain the image quality of the reconstructed image regardless of the position of the virtual viewpoint.

例えば、図1の例において、注視点101に存在する被写体の再構成画像を生成する場合について考える。仮想視点が左側(撮像装置102b側)に存在する場合は、撮像装置102b(及び被写体の左側に存在する撮像装置)による撮像画像が再構成画像に大きく寄与する。一方、仮想視点が右側(撮像装置102a側)に存在する場合は、撮像装置102a(及び被写体の右側に存在する撮像装置)による撮像画像が再構成画像に大きく寄与する。ここで、撮像装置102aと被写体との間の距離は、撮像装置102bと被写体との間の距離よりも短い。したがって、撮像装置102a,102bの画角が同じ場合、撮像装置102bによる撮像画像と比較して、撮像装置102aによる撮像画像において、被写体が小さくなる。このため、仮想視点の位置により、被写体の画質が変動する可能性がある。   For example, in the example of FIG. 1, the case of generating a reconstructed image of a subject present at the gaze point 101 will be considered. When the virtual viewpoint is on the left side (the imaging device 102b side), an image captured by the imaging device 102b (and an imaging device located on the left side of the subject) largely contributes to the reconstructed image. On the other hand, when the virtual viewpoint is on the right side (the imaging device 102a side), an image captured by the imaging device 102a (and an imaging device located on the right side of the subject) largely contributes to the reconstructed image. Here, the distance between the imaging device 102a and the subject is shorter than the distance between the imaging device 102b and the subject. Therefore, when the angle of view of the imaging devices 102a and 102b is the same, the subject becomes smaller in the captured image by the imaging device 102a as compared with the image captured by the imaging device 102b. Therefore, the image quality of the subject may vary depending on the position of the virtual viewpoint.

一実施形態においては、撮像装置と注視点との間の距離に応じて、撮像装置の焦点距離(画角)を変えることができる。例えば、撮像装置と注視点との間の距離が長いほど、撮像装置の焦点距離を長く(画角を狭く)することができる。図1の例によれば、第1の撮像装置群102は、互いに異なる画角を有する第4の撮像装置102a及び第5の撮像装置102bを含んでいる。そして、第5の撮像装置102bは、第4の撮像装置102aと比較して、画角が広くかつ第1の注視点101に近い。   In one embodiment, the focal length (field angle) of the imaging device can be changed according to the distance between the imaging device and the gaze point. For example, as the distance between the imaging device and the gaze point is longer, the focal length of the imaging device can be made longer (the angle of view can be narrowed). According to the example of FIG. 1, the first imaging device group 102 includes a fourth imaging device 102a and a fifth imaging device 102b having different angles of view. The fifth imaging device 102 b has a wide angle of view and is close to the first gaze point 101 as compared with the fourth imaging device 102 a.

具体的な焦点距離(画角)の設定方法は特に限定されないが、例えば、注視点付近に存在する被写体の大きさがそれぞれの撮像装置により得られた撮像画像上で同程度になるように設定を行うことができる。例えば、以下の式に従って、撮像装置の焦点距離を決定することができる。
(撮像装置Aの焦点距離)=(撮像装置Bの焦点距離)×(撮像装置Aとその注視点との間の距離)/(撮像装置Bとその注視点との間の距離)
Although the setting method of a specific focal distance (field angle) is not particularly limited, for example, it is set so that the size of the subject present in the vicinity of the fixation point becomes approximately the same on the captured image obtained by each imaging device It can be performed. For example, the focal length of the imaging device can be determined according to the following equation.
(Focal length of imaging device A) = (focal length of imaging device B) × (distance between imaging device A and its gaze point) / (distance between imaging device B and its gaze point)

この方法は、図2の例にも適用可能である。すなわち、撮像装置204とその注視点203との間の距離、及び撮像装置206とその注視点205との間の距離に応じて、撮像装置204,206の焦点距離(画角)を決定することができる。   This method is also applicable to the example of FIG. That is, the focal distances (angles of view) of the imaging devices 204 and 206 are determined according to the distance between the imaging device 204 and its gaze point 203 and the distance between the imaging device 206 and its gaze point 205. Can.

[実施形態3]
実施形態1,2では、各撮像装置の注視点を分散させる構成について説明した。実施形態3では、各撮像装置の画角を変化させる構成について説明する。実施形態3に係る撮像システム300は、実施形態1と同様に複数の撮像装置302,304を備え、それぞれを用いて自由視点画像を生成するための複数の撮像画像を取得する。以下では、実施形態1と異なる点について説明する。
Third Embodiment
In the first and second embodiments, the configuration in which the fixation points of the imaging devices are dispersed has been described. In the third embodiment, a configuration for changing the angle of view of each imaging device will be described. The imaging system 300 according to the third embodiment includes a plurality of imaging devices 302 and 304 as in the first embodiment, and acquires a plurality of captured images for generating a free viewpoint image using each of the imaging devices 302 and 304. The differences from the first embodiment will be described below.

実施形態3に係る撮像システム300は、1以上の撮像装置で構成される第1の撮像装置群302と、第1の撮像装置群よりも画角が広い1以上の撮像装置で構成される第2の撮像装置群304と、を備える。このような構成によれば、第1の撮像装置群302によりカバーされる領域について画質を向上させることができる。また、撮影空間中の広い領域が第2の撮像装置群304によりカバーされるため、視点の自由度を向上させることもできる。   The imaging system 300 according to the third embodiment includes a first imaging device group 302 including one or more imaging devices, and one or more imaging devices having a wider angle of view than the first imaging device group. And a second imaging device group 304. According to such a configuration, the image quality of the area covered by the first imaging device group 302 can be improved. In addition, since a wide area in the imaging space is covered by the second imaging device group 304, the degree of freedom of the viewpoint can also be improved.

このような構成の例について、図3を参照して説明する。第1の撮像装置群302は、撮影フィールド108上の第1の領域301が視野内に入るように設置されている。言い換えれば、第1の領域301は、第1の撮像装置群302の共通視野領域である。また、第2の撮像装置群304は、撮影フィールド108上の第2の領域305が視野内に入るように設置されている。言い換えれば、第2の領域305は、第2の撮像装置群304の共通視野領域である。ここで、第1の領域301は、第2の領域305に含まれている。図3には、第1の撮像装置群302に含まれる撮像装置302aにより撮像された画像306、及び第1の撮像装置群304に含まれる撮像装置304aにより撮像された画像307が示されている。   An example of such a configuration will be described with reference to FIG. The first imaging device group 302 is installed such that the first area 301 on the imaging field 108 falls within the field of view. In other words, the first area 301 is a common visual field area of the first imaging device group 302. In addition, the second imaging device group 304 is installed so that the second area 305 on the imaging field 108 falls within the field of view. In other words, the second area 305 is a common visual field area of the second imaging device group 304. Here, the first area 301 is included in the second area 305. FIG. 3 shows an image 306 captured by the imaging device 302 a included in the first imaging device group 302 and an image 307 captured by the imaging device 304 a included in the first imaging device group 304. .

このような構成によれば、第1の撮像装置群302は第1の領域301上の被写体を様々な方向から撮像することができる。また、第1の撮像装置群302の画角を狭くすることが可能となり、すなわち画質の向上を実現することができる。一方、第2の撮像装置群304は、画角が広いために画質は限られるかもしれないが、第2の領域305上の被写体を様々な方向から撮像することができるため、視点の自由度を確保できる。このように、図3の構成によれば、全体としてバランスが取れた視点の自由度と画質とを得ることができる。   According to such a configuration, the first imaging device group 302 can capture an object on the first area 301 from various directions. In addition, it is possible to narrow the angle of view of the first imaging device group 302, that is, to improve the image quality. On the other hand, the image quality may be limited because the second imaging device group 304 has a wide angle of view, but it is possible to image the subject on the second area 305 from various directions. Can be secured. As described above, according to the configuration of FIG. 3, it is possible to obtain the degree of freedom and the image quality of the viewpoint that is well balanced as a whole.

別の構成例について、図4を参照して説明する。第1の撮像装置群402は、撮影フィールド108上に設けられた第1の領域401が視野内に入るように設置されている。言い換えれば、第1の領域401は、第1の撮像装置群402の共通視野領域である。第2の撮像装置群は、第1の撮像装置群402よりも画角が広い撮像装置により構成される。図4には1つの撮像装置404aにより構成される第2の撮像装置群が示されているが、第2の撮像装置群には2以上の撮像装置が含まれてもよい。   Another configuration example will be described with reference to FIG. The first imaging device group 402 is installed so that the first area 401 provided on the imaging field 108 falls within the field of view. In other words, the first area 401 is a common visual field area of the first imaging device group 402. The second imaging device group is configured by imaging devices having a wider angle of view than the first imaging device group 402. Although FIG. 4 shows a second imaging device group configured by one imaging device 404a, the second imaging device group may include two or more imaging devices.

第2の撮像装置群は、撮影フィールド108外に設けられた注視点に向けて設置することができる。例えば、図4において、第2の撮像装置群は観客席に向けて設置されている。図4には、例として、第1の撮像装置群402のうちの1つの撮像装置402aにより撮像される画像403と、第2の撮像装置群のうちの1つの撮像装置404aにより撮像される画像405と、が示されている。第2の撮像装置群は、第1の領域401以外の被写体領域を撮像できるように設置することができる。例えば、シーン全体(観客席全体)がカバーされるように、第2の撮像装置群を設置し、その画角を調整することができる。このような構成によれば、観客席等の撮影フィールド108外の被写体についても再構成画像を得ることができる。   The second imaging device group can be installed toward a gaze point provided outside the imaging field 108. For example, in FIG. 4, the second imaging device group is installed toward the audience seat. In FIG. 4, as an example, an image 403 captured by one imaging device 402 a of the first imaging device group 402 and an image captured by one imaging device 404 a of the second imaging device group And 405 are shown. The second imaging device group can be installed so as to be able to image a subject area other than the first area 401. For example, the second imaging device group can be installed and its angle of view can be adjusted so that the entire scene (entire audience seat) is covered. According to such a configuration, it is possible to obtain a reconstructed image of an object outside the imaging field 108 such as a spectator seat.

このように、図4の構成によっても、画角のより狭い撮像装置群と、画角のより広い撮像装置群とを組み合わせることにより、全体としてバランスが取れた視点の自由度と画質とを得ることができる。   Thus, even with the configuration of FIG. 4, by combining the imaging device group having a narrower angle of view and the imaging device group having a wider angle of view, it is possible to obtain the degree of freedom and image quality of the viewpoint balanced as a whole. be able to.

[実施形態4]
実施形態1〜3では、自由視点画像を生成するための撮像システムの例について説明した。本実施形態では、撮像システムにより得られた撮像画像を用いて、自由視点画像を生成する画像処理装置及びその処理方法について説明する。本実施形態においては、主に、撮影空間中に存在し、移動している1つの被写体が写る再構成画像を生成する方法について説明する。しかしながら、同様の方法により、2以上の被写体が写る再構成画像を生成することもできる。また、被写体は人物等の移動する物体であってもよいし、床又は背景等の移動しない物体であってもよい。
Fourth Embodiment
In Embodiments 1 to 3, an example of an imaging system for generating a free viewpoint image has been described. In the present embodiment, an image processing apparatus that generates a free viewpoint image and a processing method thereof will be described using a captured image obtained by an imaging system. In the present embodiment, mainly, a method of generating a reconstructed image in which one moving subject existing in the imaging space is captured will be described. However, a similar method can also be used to generate a reconstructed image in which two or more subjects appear. Further, the subject may be a moving object such as a person, or may be a non-moving object such as a floor or a background.

本実施形態に係る画像処理装置は、例えばプロセッサー及びメモリを備えるコンピュータでありうる。図5は、本実施形態に係る画像処理装置500のハードウェア構成例を示す。画像処理装置500は、CPU501、メインメモリ502、記憶部503、入力部504、表示部505、外部I/F部506、及びバス507を備える。   The image processing apparatus according to the present embodiment may be, for example, a computer including a processor and a memory. FIG. 5 shows an example of the hardware configuration of the image processing apparatus 500 according to the present embodiment. The image processing apparatus 500 includes a CPU 501, a main memory 502, a storage unit 503, an input unit 504, a display unit 505, an external I / F unit 506, and a bus 507.

CPU501は、演算処理及び各種プログラムの実行を行う。メインメモリ502は、処理に必要なプログラム、データ、及び作業領域等をCPU501に提供する。記憶部503は、例えばハードディスク又はシリコンディスク等であり、各種プログラム又はデータを蓄積する。入力部504は、例えばキーボード、マウス、電子ペン、又はタッチパネル等であり、ユーザからの操作入力を受け付ける。表示部505は、例えばディスプレイであり、CPU501の制御に従ってGUI等を表示する。外部I/F部506は、外部装置とのインタフェースである。本実施形態において、外部I/F部506は、LAN508を介して撮像装置群と接続し、撮像装置群との間で映像データ及び制御信号データ等を送受信する。バス507は上述の各部を接続し、データを転送する。   The CPU 501 executes arithmetic processing and various programs. The main memory 502 provides the CPU 501 with programs, data, work areas and the like necessary for processing. The storage unit 503 is, for example, a hard disk or a silicon disk, and stores various programs or data. The input unit 504 is, for example, a keyboard, a mouse, an electronic pen, or a touch panel, and receives an operation input from a user. The display unit 505 is, for example, a display, and displays a GUI or the like according to the control of the CPU 501. An external I / F unit 506 is an interface with an external device. In the present embodiment, the external I / F unit 506 is connected to the imaging device group via the LAN 508, and transmits and receives video data, control signal data, and the like to and from the imaging device group. A bus 507 connects the above-described units to transfer data.

例えば図6に示されるような、以下で説明される各部の動作は、以下のようにして実現できる。すなわち、記憶部503等の、コンピュータ読み取り可能な記憶媒体に格納された各部の動作に対応するプログラムを、メインメモリ502に展開する。そして、このプログラムに従ってCPU501が動作することにより、以下で説明される各部の動作を実現できる。もっとも、後述する各部のうち全部又は一部の動作は、ASIC等の専用のハードウェアによって実現されてもよい。   For example, the operation of each part described below as shown in FIG. 6 can be realized as follows. That is, a program corresponding to the operation of each unit stored in a computer readable storage medium such as the storage unit 503 is expanded in the main memory 502. The operation of each unit described below can be realized by the CPU 501 operating according to this program. However, the operation of all or part of the units described later may be realized by dedicated hardware such as an ASIC.

画像処理装置500は、第1の撮像装置群509及び第2の撮像装置群510と接続され、画像処理システム511を構成している。撮像装置群509,510は、画像処理装置500からの制御信号に従って、撮影の開始及び停止、設定(シャッタースピード又は絞り等)の変更、並びに撮影データの転送を行う。撮像装置群509,510は、例えば実施形態1〜3に従って撮影空間の周りに配置することができる。   The image processing apparatus 500 is connected to the first imaging device group 509 and the second imaging device group 510, and constitutes an image processing system 511. The imaging device groups 509 and 510 start and stop shooting, change settings (such as shutter speed or aperture), and transfer shooting data in accordance with control signals from the image processing device 500. The imaging device groups 509 and 510 can be arranged around the imaging space according to, for example, the first to third embodiments.

図6は、画像処理装置500が備える機能構成を示す。図6に示すように、画像処理装置500は、画像取得部610、視点設定部620、形状推定部630、及び画像生成部640を備える。   FIG. 6 shows a functional configuration of the image processing apparatus 500. As shown in FIG. 6, the image processing apparatus 500 includes an image acquisition unit 610, a viewpoint setting unit 620, a shape estimation unit 630, and an image generation unit 640.

画像取得部610は、複数の撮像装置で構成される撮像装置群509,510のそれぞれが被写体を撮像して得られた複数の撮像画像を取得する。画像取得部610は、LAN508を介して複数の撮像装置509,510を制御することにより、撮像装置群509,510に同時に被写体を撮像させ、得られた撮像画像を画像取得部610に送信させることができる。撮像装置群509,510が連続して撮像を行うことにより動画像を取得することもできる。この場合、画像処理装置500は、各フレームの撮像画像を用いて処理を行うことにより、再構成画像により構成される動画像を生成することができる。   The image acquisition unit 610 acquires a plurality of captured images obtained by imaging a subject by each of the imaging device groups 509 and 510 configured by a plurality of imaging devices. The image acquisition unit 610 controls the plurality of imaging devices 509 and 510 via the LAN 508 to cause the imaging device groups 509 and 510 to simultaneously capture an object, and to transmit the obtained captured image to the image acquisition unit 610. Can. A moving image can also be acquired by the imaging device group 509, 510 performing imaging continuously. In this case, the image processing apparatus 500 can generate a moving image composed of reconstructed images by performing processing using the captured image of each frame.

視点設定部620は、再構成画像の仮想視点の設定を行う。具体的には、視点設定部620は、仮想視点の三次元位置及びその姿勢(又は光軸方向)を設定することができる。視点設定部620は、さらに仮想視点の画角及び解像度等を設定することもできる。視点設定部620は、仮想視点の設定を、入力部504を介して入力されたユーザ指示に基づいて行うことができる。   The viewpoint setting unit 620 sets a virtual viewpoint of the reconstructed image. Specifically, the viewpoint setting unit 620 can set the three-dimensional position of the virtual viewpoint and its attitude (or the optical axis direction). The viewpoint setting unit 620 can also set the angle of view, resolution, and the like of the virtual viewpoint. The viewpoint setting unit 620 can perform setting of the virtual viewpoint based on a user instruction input via the input unit 504.

形状推定部630は、画像取得部610が取得した撮像画像に基づいて、被写体の形状を推定する。より具体的には、形状推定部630は、それぞれの撮像画像から所望の被写体領域を切り出し、得られた画像に基づいて被写体の三次元位置及び形状を推定する。本実施形態において、撮像装置群509,510の位置関係は既知であり、あらかじめ記憶部503等に記録されている。そして、このような撮像装置群509,510により得られた被写体の撮像画像に基づいて被写体の三次元位置及び形状を推定する方法は公知であり、任意の方法を採用することができる。例えば、特許文献1に記載されている視体積公差法又はステレオマッチング法を用いて、被写体の三次元モデルを生成することができる。   The shape estimation unit 630 estimates the shape of the subject based on the captured image acquired by the image acquisition unit 610. More specifically, the shape estimation unit 630 cuts out a desired subject region from each captured image, and estimates the three-dimensional position and the shape of the subject based on the obtained image. In the present embodiment, the positional relationship between the imaging device groups 509 and 510 is known, and is recorded in advance in the storage unit 503 or the like. A method for estimating the three-dimensional position and shape of the subject based on the captured image of the subject obtained by the imaging device groups 509 and 510 is known, and any method can be adopted. For example, a three-dimensional model of an object can be generated using the visual volume tolerance method or stereo matching method described in Patent Document 1.

形状推定部630は、複数の撮像装置509,510により得られた撮像画像の全てを用いて被写体の形状を推定することができる。一方で、形状推定部630は、複数の撮像装置509,510から選択された選択撮像装置群により撮像された撮像画像を用いて被写体の形状を推定することもできる。この場合、形状推定部630は、被写体の形状の推定に用いる選択撮像装置群を複数の撮像装置509,510から選択する。そして、形状推定部630は、選択撮像装置群により得られた撮像画像を用いて被写体の形状を推定する。本実施形態において、選択されなかった非選択撮像装置群により得られた撮像画像は、被写体の形状の推定には用いられない。なお、後述する画像生成部640が、非選択撮像装置群により得られた撮像画像を用いて被写体の色を推定していることからわかるように、被写体が写っている撮像画像が、被写体の形状推定に用いられない可能性もある。   The shape estimation unit 630 can estimate the shape of the subject using all the captured images obtained by the plurality of imaging devices 509 and 510. On the other hand, the shape estimation unit 630 can also estimate the shape of the subject using a captured image captured by the selected imaging device group selected from the plurality of imaging devices 509 and 510. In this case, the shape estimation unit 630 selects a selected imaging device group used for estimating the shape of the subject from the plurality of imaging devices 509 and 510. Then, the shape estimation unit 630 estimates the shape of the subject using the captured image obtained by the selected imaging device group. In the present embodiment, the captured image obtained by the non-selected imaging device group which is not selected is not used for estimation of the shape of the subject. As can be understood from the fact that the image generation unit 640 described later estimates the color of the subject using the captured images obtained by the non-selected imaging device group, the captured image including the subject has the shape of the subject. It may not be used for estimation.

本実施形態において、形状推定部630は、仮想視点の配置に応じて選択撮像装置群を選択する。例えば、形状推定部630は、仮想視点の注視点と、撮像装置の注視点との関係に基づいて、選択撮像装置群を選択することができる。ここで、形状推定部630は、仮想視点の注視点により近い注視点を有する撮像装置群を、選択撮像装置群として選択することができる。例として、図1に従って、第1の注視点101に向けて設置された第1の撮像装置群102と、第2の注視点103に向けて設置された第2の撮像装置群104が存在する場合について説明する。仮想視点の注視点が、第1の注視点101よりも第2の注視点103に近い場合、形状推定部630は、第2の撮像装置群104を選択撮像装置群として選択する。また、仮想視点の注視点が、第2の注視点103よりも第1の注視点101に近い場合、形状推定部630は、第1の撮像装置群102を選択撮像装置群として選択する。このように、形状推定部630は、選択撮像装置群として第1の注視点101に向けて設置された第1の撮像装置群102と第2の注視点103に向けて設置された第2の撮像装置群104とのいずれを選択するかを切り替えることができる。この切り替えは、仮想視点の注視点が第2の注視点103と第1の注視点101とのいずれにより近いかに応じて行われる。   In the present embodiment, the shape estimation unit 630 selects the selected imaging device group according to the arrangement of the virtual viewpoints. For example, the shape estimation unit 630 can select the selected imaging device group based on the relationship between the gaze point of the virtual viewpoint and the gaze point of the imaging device. Here, the shape estimation unit 630 can select an imaging device group having a gaze point closer to the fixation point of the virtual viewpoint as a selected imaging device group. As an example, according to FIG. 1, there are a first imaging device group 102 installed toward the first fixation point 101 and a second imaging device group 104 installed toward the second fixation point 103. The case will be described. If the gaze point of the virtual viewpoint is closer to the second gaze point 103 than the first gaze point 101, the shape estimation unit 630 selects the second imaging device group 104 as the selected imaging device group. When the gaze point of the virtual viewpoint is closer to the first gaze point 101 than the second gaze point 103, the shape estimation unit 630 selects the first imaging device group 102 as the selected imaging device group. As described above, the shape estimation unit 630 is provided for the first imaging device group 102 installed toward the first gaze point 101 as the selected imaging device group and the second installed for the second gaze point 103. It is possible to switch which of the imaging device group 104 is selected. This switching is performed according to which of the second gaze point 103 and the first gaze point 101 the fixation point of the virtual viewpoint is closer.

また、図2に従って、互いに異なる注視点に向けて設置された撮像装置が存在する場合について説明する。この場合、形状推定部630は、仮想視点の注視点から所定の範囲内に注視点を有する撮像装置群を、選択撮像装置群として選択することができる。また、形状推定部630は、仮想視点の注視点により近い注視点を有する所定数の撮像装置群を、選択撮像装置群として選択することもできる。   Further, according to FIG. 2, a case where there are imaging devices installed toward different gazing points will be described. In this case, the shape estimation unit 630 can select an imaging device group having a gaze point within a predetermined range from the gaze point of the virtual viewpoint as a selected imaging device group. The shape estimation unit 630 can also select, as a selected imaging device group, a predetermined number of imaging device groups having a fixation point closer to the fixation point of the virtual viewpoint.

別の例として、形状推定部630は、仮想視点の注視点と、撮像装置群の共通視野領域との関係に基づいて、選択撮像装置群を選択することができる。例えば、形状推定部630は、仮想視点の注視点が、撮像装置群の共通視野領域に含まれる場合に、この撮像装置群を選択撮像装置群として選択することができる。例として、図3に従って、共通視野領域301を有する第1の撮像装置群302と、共通視野領域305を有する第2の撮像装置群304が存在する場合について説明する。仮想視点の注視点が、共通視野領域301に含まれる場合、形状推定部630は、第1の撮像装置群302を選択撮像装置群として選択する。また、仮想視点の注視点が、共通視野領域301に含まれず、共通視野領域305に含まれる場合、形状推定部630は、第2の撮像装置群304を選択撮像装置群として選択する。ここで、撮像装置群に優先順位を設定することができ、この例では第2の撮像装置群304よりも第1の撮像装置群302が優先的に選択されている。ここで、形状推定部630は、より画角が狭い第1の撮像装置群302を優先的に選択している。このように、形状推定部630は、仮想視点の注視点が共通視野領域301に含まれるか否かに応じて、共通視野領域301が視野内に入るように設置された第1の撮像装置群302を選択撮像装置群として選択するか否かを切り替えることができる。   As another example, the shape estimation unit 630 can select the selected imaging device group based on the relationship between the gaze point of the virtual viewpoint and the common viewing area of the imaging device group. For example, when the gaze point of the virtual viewpoint is included in the common view area of the imaging device group, the shape estimation unit 630 can select the imaging device group as a selected imaging device group. As an example, according to FIG. 3, the case where there is a first imaging device group 302 having a common visual field region 301 and a second imaging device group 304 having a common visual field region 305 will be described. When the gaze point of the virtual viewpoint is included in the common visual field area 301, the shape estimation unit 630 selects the first imaging device group 302 as the selected imaging device group. When the fixation point of the virtual viewpoint is not included in the common visual field area 301 but is included in the common visual field area 305, the shape estimation unit 630 selects the second imaging device group 304 as a selected imaging device group. Here, priority can be set to the imaging device group, and in this example, the first imaging device group 302 is selected with priority over the second imaging device group 304. Here, the shape estimation unit 630 preferentially selects the first imaging device group 302 with a narrower angle of view. As described above, according to whether or not the gaze point of the virtual viewpoint is included in the common visual field area 301, the shape estimation unit 630 sets the first imaging device group installed so that the common visual field area 301 falls within the visual field. It is possible to switch whether or not to select 302 as the selected imaging device group.

このように、選択撮像装置群により撮像された撮像画像を用いて被写体の形状を推定することにより、推定処理に用いる撮像画像の数を減らすことができる。このため、推定処理の負荷を減らすことができる。一方で、仮想視点の配置に従って選択された選択撮像装置群により得られた撮像画像には、再構成画像に含まれる被写体が写っている可能性が高いため、この被写体の三次元形状を高精度に得ることができ、画像品質を維持できる。ここでは、仮想視点の注視点に基づいて撮像装置群を選択する方法について説明したが、この方法には限定されない。例えば、形状推定部630は、仮想視点の視野領域に注視点が存在する撮像装置群を選択してもよいし、仮想視点の視野領域と重複する共通視野領域を有する撮像装置群を選択してもよい。   As described above, by estimating the shape of the subject using the captured images captured by the selected imaging device group, the number of captured images used for the estimation process can be reduced. Therefore, the load of estimation processing can be reduced. On the other hand, since it is highly possible that the subject included in the reconstructed image appears in the captured image obtained by the selected imaging device group selected according to the arrangement of the virtual viewpoint, the three-dimensional shape of this subject is highly accurate. And maintain the image quality. Here, although the method of selecting the imaging device group based on the fixation point of the virtual viewpoint has been described, the present invention is not limited to this method. For example, the shape estimation unit 630 may select an imaging device group in which a gaze point exists in the visual field region of the virtual viewpoint, or selects an imaging device group having a common visual field region overlapping the visual field region of the virtual viewpoint. It is also good.

また、ここでは仮想視点の配置に基づいて撮像装置群を選択する方法について説明したが、この方法には限定されない。例えば、撮像装置群の注視点又は共通視野領域と、被写体の位置との関係に基づいて、撮像装置群を選択することもできる。一例として、第1の注視点101又は共通視野領域105に近い被写体については第1の撮像装置群102により撮像された撮像画像を用いて形状を推定することができる。また、第2の注視点103又は共通視野領域106に近い被写体については第2の撮像装置群104,304により撮像された撮像画像を用いて形状を推定することができる。   Further, although the method of selecting the imaging device group based on the arrangement of virtual viewpoints has been described here, the present invention is not limited to this method. For example, the imaging device group can also be selected based on the relationship between the fixation point or the common visual field area of the imaging device group and the position of the subject. As an example, for a subject close to the first gaze point 101 or the common visual field area 105, the shape can be estimated using a captured image captured by the first imaging device group 102. The shape of the subject close to the second gaze point 103 or the common visual field area 106 can be estimated using the captured image captured by the second imaging device group 104 or 304.

画像生成部640は、選択撮像装置群により得られた撮像画像と、選択撮像装置群として選択されなかった非選択撮像装置群により得られた撮像画像との双方を用いて、被写体の色を推定する。そして、画像生成部640は、推定された被写体の形状及び色に基づいて仮想視点からの再構成画像を生成する。図1の例において、仮想視点の注視点が、注視点101の近傍に存在する場合、形状推定部630は第1の撮像装置群102を選択し、第2の撮像装置群104を選択しない。一方で、撮像装置104aは仮想視点の注視点に近いため、撮像装置104aにより得られた撮像画像には、再構成画像に写る被写体が大きく写っている可能性が高い。このため、本実施形態においては、被写体の色を推定する際には非選択撮像装置群により得られた撮像画像も用いることで再構成画像の品質を向上させる。   The image generation unit 640 estimates the color of the subject using both the captured image obtained by the selected imaging device group and the captured image obtained by the non-selected imaging device group not selected as the selected imaging device group Do. Then, the image generation unit 640 generates a reconstructed image from a virtual viewpoint based on the estimated shape and color of the subject. In the example of FIG. 1, when the gaze point of the virtual viewpoint is present in the vicinity of the gaze point 101, the shape estimation unit 630 selects the first imaging device group 102 and does not select the second imaging device group 104. On the other hand, since the imaging device 104a is close to the fixation point of the virtual viewpoint, in the captured image obtained by the imaging device 104a, there is a high possibility that the subject appearing in the reconstructed image is large. For this reason, in the present embodiment, when estimating the color of the subject, the quality of the reconstructed image is improved by using also the captured image obtained by the non-selected imaging device group.

撮像画像及び被写体の形状から被写体の色を推定する方法は公知であり、画像生成部640は任意の方法を用いて再構成画像を生成することができる。例えば、形状推定部630により被写体の三次元位置及び形状が得られており、また各撮像装置群509,510の位置、姿勢、画角、及び解像度情報を用いることにより、被写体上の各位置に対応する撮像画像上の画素を特定することが可能である。こうして特定された画素の色情報に基づいて、被写体上の各位置の色を推定することができる。   A method of estimating the color of the subject from the captured image and the shape of the subject is known, and the image generation unit 640 can generate a reconstructed image using any method. For example, the three-dimensional position and shape of the subject are obtained by the shape estimation unit 630, and by using the position, posture, angle of view, and resolution information of each imaging device group 509, 510, It is possible to identify pixels on the corresponding captured image. The color of each position on the subject can be estimated based on the color information of the pixel thus identified.

一例として、距離マップを用いて再構成画像を生成する方法について簡単に説明する。まず画像生成部640は、被写体の位置及び形状情報、並びに仮想視点の位置及び姿勢情報を用いて、仮想視点からみた被写体の距離マップを生成する。次に、画像生成部640は、再構成画像の各画素について、距離マップを参照してこの画素に写る被写体の位置を特定し、さらに撮像画像を参照してこの画素に写る被写体の色情報を取得する。こうして、画像生成部640は、再構成画像を生成することができる。   As an example, a method of generating a reconstructed image using a distance map will be briefly described. First, the image generation unit 640 generates a distance map of the subject viewed from the virtual viewpoint, using the position and shape information of the subject, and the position and orientation information of the virtual viewpoint. Next, with respect to each pixel of the reconstructed image, the image generation unit 640 specifies the position of the subject shown in this pixel by referring to the distance map, and further refers to the picked-up image, the color information of the subject shown in this pixel get. Thus, the image generation unit 640 can generate a reconstructed image.

図4に示したように、撮像装置群404aを用いて観客席等の撮影フィールド108外の画像を撮像している場合、以下のような処理を行うことができる。すなわち、画像生成部640は、撮影フィールド108中の被写体については撮像装置群402により得られた撮像画像を用いて被写体の色を決定することができる。一方で、画像生成部640は、撮影フィールド108外の被写体については撮像装置群404aにより得られた撮像画像を用いて被写体の色を決定することができる。別の方法として、画像生成部640は、重み付け合成により被写体の色を決定することもできる。この場合、撮影フィールド108中の被写体については撮像装置群402により得られた撮像画像により大きな重みを付与し、撮影フィールド108外の被写体については撮像装置群404aにより得られた撮像画像により大きな重みを付与することができる。   As shown in FIG. 4, when an image outside the shooting field 108 such as a spectator seat is captured using the imaging device group 404a, the following processing can be performed. That is, the image generation unit 640 can determine the color of the subject in the imaging field 108 using the captured image obtained by the imaging device group 402. On the other hand, the image generation unit 640 can determine the color of the subject outside the shooting field 108 using the captured image obtained by the imaging device group 404a. As another method, the image generation unit 640 can also determine the color of the subject by weighted combination. In this case, the subject in the imaging field 108 is given a larger weight to the captured image obtained by the imaging device group 402, and the subject outside the imaging field 108 is given a larger weight to the captured image obtained by the imaging device group 404a. It can be granted.

次に、図7に従って本実施形態に係る画像処理方法の処理の流れについて説明する。ステップS710において、複数の撮像装置509,510は被写体の撮像を行い、画像取得部610は得られた撮像画像を取得する。ステップS720において、視点設定部620は、再構成画像の仮想視点を設定する。ステップS730において、形状推定部630は、被写体の形状の推定に用いる撮像装置を選択する。ステップS740において、形状推定部630は、選択された撮像装置により得られた撮像画像を用いて、被写体の形状を推定する。既に説明したように、ステップS730を行わず、ステップS740では全ての撮像装置に得られた撮像画像を用いて被写体の形状を推定してもよい。ステップS750において、画像生成部640は、得られた被写体の形状、及び複数の撮像装置509,510により得られた撮像画像に基づいて、再構成画像を生成する。   Next, the flow of processing of the image processing method according to the present embodiment will be described according to FIG. In step S710, the plurality of imaging devices 509 and 510 perform imaging of a subject, and the image acquisition unit 610 acquires the acquired captured image. In step S720, the viewpoint setting unit 620 sets a virtual viewpoint of the reconstructed image. In step S730, the shape estimation unit 630 selects an imaging device used to estimate the shape of the subject. In step S 740, the shape estimation unit 630 estimates the shape of the subject using the captured image obtained by the selected imaging device. As described above, step S730 may not be performed, and in step S740, the shape of the subject may be estimated using captured images obtained by all the imaging devices. In step S750, the image generation unit 640 generates a reconstructed image based on the obtained shape of the subject and the captured images obtained by the plurality of imaging devices 509 and 510.

[実施形態5]
実施形態1〜3では、複数の撮像装置の位置及び姿勢が固定されている場合について説明した。本実施形態においては、少なくとも1つの撮像装置の姿勢又は画角が制御される。本実施形態に係る撮像システムの構成は実施形態1〜3と同様であるが、少なくとも1つの撮像装置の姿勢又は画角が制御可能に構成されており、少なくとも1つの撮像装置の姿勢又は画角を制御する制御装置をさらに備えている。制御装置としては、例えば、図5に示す画像処理装置500を用いることができる。本実施形態において、少なくとも1つの撮像装置を電動雲台に載せ、CPU501がLAN508を介して電動雲台の姿勢を制御することにより、この撮像装置の注視点を変えることができる。また、CPU501がLAN508を介して撮像装置の画角を制御することができる。このようにして、制御装置は、実施形態1〜3に示した撮像システムが構成されるように、撮像装置の姿勢又は画角を制御することができる。
Fifth Embodiment
In the first to third embodiments, the case where the positions and orientations of the plurality of imaging devices are fixed has been described. In the present embodiment, the attitude or angle of view of at least one imaging device is controlled. The configuration of the imaging system according to the present embodiment is the same as in the first to third embodiments, but the attitude or angle of view of at least one imaging device is configured to be controllable, and the attitude or angle of view of at least one imaging device And a controller for controlling the As a control device, for example, an image processing device 500 shown in FIG. 5 can be used. In the present embodiment, at least one imaging device is mounted on the motor-driven pan head, and the CPU 501 controls the attitude of the motor-driven pan head via the LAN 508 to change the point of gaze of this imaging device. Also, the CPU 501 can control the angle of view of the imaging device via the LAN 508. Thus, the control device can control the posture or the angle of view of the imaging device so that the imaging system described in the first to third embodiments is configured.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

100:撮像システム、101,103:注視点、102,104:撮像装置、500:画像処理装置、610:画像取得部、620:視点設定部、630:形状推定部、640:画像生成部 100: imaging system 101, 103: gaze point 102, 104: imaging device 500: image processing device 610: image acquisition unit 620: viewpoint setting unit 630: shape estimation unit 640: image generation unit

Claims (23)

第1の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、前記第1の位置とは異なる第2の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、を取得する取得手段と、
前記第1の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと前記第2の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データのうち少なくとも一方の複数の画像データに基づいて、仮想視点画像の生成に用いられる被写体の3次元形状データを生成する形状生成手段と、を有し、
前記第1の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第1の位置よりも前記第2の位置の近くに設置され、
前記第2の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第2の位置よりも前記第1の位置の近くに設置されていることを特徴とする画像処理装置。
A plurality of image data obtained based on imaging by a plurality of imaging devices installed to image a first position, and a plurality of images installed to image a second position different from the first position Acquisition means for acquiring a plurality of image data obtained based on imaging by the imaging device of
Based on imaging by a plurality of image data obtained based on imaging by a plurality of imaging devices installed to image the first position and imaging by a plurality of imaging devices installed to image the second position And shape generation means for generating three-dimensional shape data of a subject used for generating a virtual viewpoint image based on at least one of a plurality of image data among a plurality of image data obtained.
At least one imaging device among a plurality of imaging devices installed to image the first position is installed closer to the second position than the first position,
At least one imaging device among a plurality of imaging devices installed to image the second position is installed closer to the first position than the second position. Image processing device.
前記第1の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第2の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置よりも前記第2の位置の近くに設置されていることを特徴とする請求項1に記載の画像処理装置。   At least one imaging device of the plurality of imaging devices installed to image the first position is at least one imaging device of the plurality of imaging devices installed to image the second position The image processing apparatus according to claim 1, wherein the image processing apparatus is installed near the second position. 前記第1の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第2の位置を撮像するように設置された複数の撮像装置のうちの2つの撮像装置の間に設置されていることを特徴とする請求項1又は2に記載の画像処理装置。   At least one imaging device of the plurality of imaging devices installed to image the first position is two imaging devices of the plurality of imaging devices installed to image the second position The image processing apparatus according to claim 1, wherein the image processing apparatus is installed between the two. 前記第1の位置と前記第2の位置は、同一の撮像フィールドに含まれることを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 3, wherein the first position and the second position are included in the same imaging field. 前記第1の位置を撮像するように設置された複数の撮像装置のそれぞれは、前記撮像フィールド上の前記第1の位置を含む第1の領域が視野内に入るように設置されており、
前記第1の位置を撮像するように設置された複数の撮像装置のうち少なくとも2つの撮像装置は、前記第1の領域を挟むように設置されていることを特徴とする請求項4に記載の画像処理装置。
Each of the plurality of imaging devices installed to image the first position is installed such that a first region including the first position on the imaging field falls within a field of view;
5. The apparatus according to claim 4, wherein at least two imaging devices among the plurality of imaging devices installed to image the first position are installed to sandwich the first region. Image processing device.
前記第1の位置を撮像するように設置された複数の撮像装置と前記第2の位置を撮像するように設置された複数の撮像装置は、前記撮像フィールドからの高さが同じ位置に設置されていることを特徴とする請求項4又は5に記載の画像処理装置。   The plurality of imaging devices installed to image the first position and the plurality of imaging devices installed to image the second position are installed at the same height from the imaging field. The image processing apparatus according to claim 4 or 5, characterized in that: 前記第1の位置を撮像するように設置された複数の撮像装置は、互いに画角が異なる第1の撮像装置と第2の撮像装置を含むことを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。   The plurality of imaging devices installed to image the first position include a first imaging device and a second imaging device having different angle of view from each other. An image processing apparatus according to item 1. 前記第2の撮像装置は、前記第1の撮像装置と比較して、画角が広くかつ前記第1の位置に近い位置に設置されていることを特徴とする請求項7に記載の画像処理装置。   The image processing according to claim 7, wherein the second imaging device is installed at a position having a wide angle of view and close to the first position as compared with the first imaging device. apparatus. 前記第1の位置を撮像するように設置された複数の撮像装置は、前記第1の位置に基づいて合焦位置が設定され、
前記第2の位置を撮像するように設置された複数の撮像装置は、前記第2の位置に基づいて合焦位置が設定されていることを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
The plurality of imaging devices installed to image the first position have in-focus positions set based on the first position,
The plurality of imaging devices installed to image the second position have their in-focus positions set based on the second position. The image processing apparatus according to claim 1.
前記形状生成手段は、前記第1の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、前記第2の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データとに基づいて、前記被写体の3次元形状データを生成することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The shape generation unit is configured to capture a plurality of image data obtained based on imaging by a plurality of imaging devices installed to capture the first position, and a plurality of images configured to capture the second position. The image processing apparatus according to any one of claims 1 to 9, wherein three-dimensional shape data of the subject is generated based on a plurality of image data obtained based on imaging by the imaging device of . 前記取得手段は、前記第1の位置及び前記第2の位置とは異なる第3の位置を撮影するよう設置された複数の撮像装置による撮像に基づいて得られる複数の画像データをさらに取得することを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。   The acquisition unit further acquires a plurality of image data obtained based on imaging by a plurality of imaging devices installed to capture a third position different from the first position and the second position. The image processing apparatus according to any one of claims 1 to 10, wherein 前記第1の位置、前記第2の位置、及び前記第3の位置は、撮像フィールド上の直線上に存在することを特徴とする請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein the first position, the second position, and the third position are on a straight line on an imaging field. 第1の領域を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、前記第1の領域とは少なくとも一部が異なる第2の領域を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、を取得する取得手段と、
前記第1の領域を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと前記第2の領域を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データのうち少なくとも一方の複数の画像データに基づいて、仮想視点画像の生成に用いられる被写体の3次元形状データを生成する形状生成手段と、を有し、
前記第1の領域を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第1の領域よりも前記第2の領域の近くに設置され、
前記第2の領域を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第2の領域よりも前記第1の領域の近くに設置されていることを特徴とする画像処理装置。
A plurality of image data obtained based on imaging by a plurality of imaging devices installed to image a first area and a second area different at least in part from the first area Acquisition means for acquiring a plurality of image data obtained based on imaging by a plurality of installed imaging devices;
Based on imaging by a plurality of image data obtained based on imaging by a plurality of imaging devices installed to image the first area and imaging by a plurality of imaging devices installed to image the second area And shape generation means for generating three-dimensional shape data of a subject used for generating a virtual viewpoint image based on at least one of a plurality of image data among a plurality of image data obtained.
At least one imaging device among a plurality of imaging devices installed to image the first area is installed closer to the second area than the first area,
At least one imaging device among a plurality of imaging devices installed to image the second area is installed closer to the first area than the second area. Image processing device.
前記第1の領域を撮像するように設置され、かつ前記第1の領域よりも前記第2の領域の近くに設置された前記少なくとも1つの撮像装置は、前記第1の領域の中心点よりも前記第2の領域の中心点の近くに設置され、
前記第2の領域を撮像するように設置され、かつ前記第2の領域よりも前記第1の領域の近くに設置された前記少なくとも1つの撮像装置は、前記第2の領域の中心点よりも前記第1の領域の中心点の近くに設置されていることを特徴とする請求項13に記載の画像処理装置。
The at least one imaging device installed to image the first area and installed closer to the second area than the first area is more than the center point of the first area Located near the center point of the second region,
The at least one imaging device installed to image the second area and installed closer to the first area than the second area is more than the center point of the second area The image processing apparatus according to claim 13, wherein the image processing apparatus is installed near the center point of the first area.
前記取得手段は、仮想視点の位置及び方向に関する情報をさらに取得し、
前記取得手段により取得された仮想視点の位置及び方向に関する情報と、前記形状生成手段により生成された前記被写体の3次元形状データとに基づいて、前記仮想視点画像を生成する画像生成手段をさらに有することを特徴とする請求項1乃至14の何れか1項に記載の画像処理装置。
The acquisition unit further acquires information on the position and the direction of the virtual viewpoint.
The image generation unit further includes an image generation unit that generates the virtual viewpoint image based on the information on the position and the direction of the virtual viewpoint acquired by the acquisition unit and the three-dimensional shape data of the subject generated by the shape generation unit. The image processing apparatus according to any one of claims 1 to 14, characterized in that:
前記被写体は、移動する物体を含むことを特徴とする請求項1乃至15の何れか1項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 15, wherein the subject includes a moving object. 前記被写体は、人物を含むことを特徴とする請求項1乃至16の何れか1項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 16, wherein the subject includes a person. 第1の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、前記第1の位置とは異なる第2の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、を取得する取得工程と、
前記第1の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと前記第2の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データのうち少なくとも一方の複数の画像データに基づいて、仮想視点画像の生成に用いられる被写体の3次元形状データを生成する生成工程と、を有し、
前記第1の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第1の位置よりも前記第2の位置の近くに設置され、
前記第2の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第2の位置よりも前記第1の位置の近くに設置されていることを特徴とする画像処理方法。
A plurality of image data obtained based on imaging by a plurality of imaging devices installed to image a first position, and a plurality of images installed to image a second position different from the first position Acquiring a plurality of image data obtained based on imaging by the imaging device of
Based on imaging by a plurality of image data obtained based on imaging by a plurality of imaging devices installed to image the first position and imaging by a plurality of imaging devices installed to image the second position Generating three-dimensional shape data of a subject used for generating a virtual viewpoint image based on at least one of a plurality of image data among a plurality of image data obtained by
At least one imaging device among a plurality of imaging devices installed to image the first position is installed closer to the second position than the first position,
At least one imaging device among a plurality of imaging devices installed to image the second position is installed closer to the first position than the second position. Image processing method.
前記第1の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第2の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置よりも前記第2の位置の近くに設置されていることを特徴とする請求項18に記載の画像処理方法。   At least one imaging device of the plurality of imaging devices installed to image the first position is at least one imaging device of the plurality of imaging devices installed to image the second position The image processing method according to claim 18, wherein the image processing method is installed near the second position. 前記第1の位置を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第2の位置を撮像するように設置された複数の撮像装置のうち2つの撮像装置の間に設置されていることを特徴とする請求項18又は19に記載の画像処理方法。   At least one of the plurality of imaging devices installed to image the first position is at least one of two imaging devices of the plurality of imaging devices installed to image the second position. The image processing method according to claim 18, wherein the image processing method is installed between the two. 前記生成工程において、前記第1の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、前記第2の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データとに基づいて、前記被写体の3次元形状データが生成されることを特徴とする請求項18乃至20の何れか1項に記載の画像処理方法。   In the generation step, a plurality of image data obtained based on imaging by a plurality of imaging devices installed to image the first position, and a plurality of images installed to image the second position The image processing method according to any one of claims 18 to 20, wherein three-dimensional shape data of the subject is generated based on a plurality of image data obtained based on imaging by an imaging device. . 第1の領域を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、前記第1の領域とは少なくとも一部が異なる第2の領域を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと、を取得する取得工程と、
前記第1の領域を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データと前記第1の領域とは異なる第2の位置を撮像するように設置された複数の撮像装置による撮像に基づいて得られる複数の画像データのうち少なくとも一方の複数の画像データに基づいて、仮想視点画像の生成に用いられる被写体の3次元形状データを生成する生成工程と、を有し、
前記第1の領域を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第1の領域よりも前記第2の領域の近くに設置され、
前記第2の領域を撮像するように設置された複数の撮像装置のうち少なくとも1つの撮像装置は、前記第2の領域よりも前記第1の領域の近くに設置されていることを特徴とする画像処理方法。
A plurality of image data obtained based on imaging by a plurality of imaging devices installed to image a first area and a second area different at least in part from the first area Acquiring a plurality of image data obtained based on imaging by a plurality of installed imaging devices;
A plurality of image data obtained based on imaging by a plurality of imaging devices installed to image the first area and a plurality of images installed to image a second position different from the first area A generation step of generating three-dimensional shape data of a subject used for generation of a virtual viewpoint image based on at least one of a plurality of image data among a plurality of image data obtained based on imaging by the imaging device of And
At least one imaging device among a plurality of imaging devices installed to image the first area is installed closer to the second area than the first area,
At least one imaging device among a plurality of imaging devices installed to image the second area is installed closer to the first area than the second area. Image processing method.
コンピュータを、請求項1乃至17の何れか1項に記載の画像処理装置の各手段として動作させるためのプログラム。   The program for operating a computer as each means of the image processing apparatus in any one of Claims 1-17.
JP2018210899A 2018-11-08 2018-11-08 Image processing device, image processing method, and program Pending JP2019067419A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018210899A JP2019067419A (en) 2018-11-08 2018-11-08 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018210899A JP2019067419A (en) 2018-11-08 2018-11-08 Image processing device, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016194777A Division JP6434947B2 (en) 2016-09-30 2016-09-30 Imaging system, image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2019067419A true JP2019067419A (en) 2019-04-25

Family

ID=66337869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018210899A Pending JP2019067419A (en) 2018-11-08 2018-11-08 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2019067419A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022042413A1 (en) * 2020-08-24 2022-03-03 阿里巴巴集团控股有限公司 Image reconstruction method and apparatus, and computer readable storage medium, and processor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167517A (en) * 2003-12-01 2005-06-23 Olympus Corp Image processor, calibration method thereof, and image processing program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167517A (en) * 2003-12-01 2005-06-23 Olympus Corp Image processor, calibration method thereof, and image processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
末永 諒,外4名: "自由視点サッカー視聴システムの開発に向けた要素技術の検討", IMPS IMAGE MEDIA PROCESSING SYMPOSIUM 2015, JPN6019043919, 2015, pages 70 - 71, ISSN: 0004264928 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022042413A1 (en) * 2020-08-24 2022-03-03 阿里巴巴集团控股有限公司 Image reconstruction method and apparatus, and computer readable storage medium, and processor

Similar Documents

Publication Publication Date Title
JP6434947B2 (en) Imaging system, image processing apparatus, image processing method, and program
JP7051457B2 (en) Image processing equipment, image processing methods, and programs
US11189055B2 (en) Information processing apparatus and method and program
JP7349793B2 (en) Image processing device, image processing method, and program
JP6047807B2 (en) Method and electronic device for realizing refocusing
KR102316061B1 (en) Image processing apparatus, method, and computer program
JP5456020B2 (en) Information processing apparatus and method
JP7263456B2 (en) Information processing device, information processing method and program
EP3460746A1 (en) Generating stereoscopic light field panoramas using concentric viewing circles
JP2017174125A (en) Information processing apparatus, information processing system, and information processing method
JP5645450B2 (en) Image processing apparatus and method
JP2018106496A (en) Image processing apparatus, image processing method, and program
JP7164968B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
KR20160094190A (en) Apparatus and method for tracking an eye-gaze
JP7196421B2 (en) Information processing device, information processing system, information processing method and program
JP7027049B2 (en) Image processing equipment, image processing methods and programs
JP2019152980A (en) Image processing system, image processing method and program
CN115086547A (en) Image pickup apparatus, portable device, calibrator, control method thereof, and storage medium
JP2013093836A (en) Image capturing apparatus, image processing apparatus, and method thereof
JP2019067419A (en) Image processing device, image processing method, and program
JP2019101563A (en) Information processing apparatus, information processing system, information processing method, and program
JP2020005089A (en) Imaging system, image processing apparatus, image processing method, and program
JP2019144958A (en) Image processing device, image processing method, and program
JP6344903B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and program
JP7514125B2 (en) Image processing device and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200522