JP2005080015A - Imaging device and method thereof - Google Patents

Imaging device and method thereof Download PDF

Info

Publication number
JP2005080015A
JP2005080015A JP2003309261A JP2003309261A JP2005080015A JP 2005080015 A JP2005080015 A JP 2005080015A JP 2003309261 A JP2003309261 A JP 2003309261A JP 2003309261 A JP2003309261 A JP 2003309261A JP 2005080015 A JP2005080015 A JP 2005080015A
Authority
JP
Japan
Prior art keywords
image
imaging
virtual viewpoint
cam
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003309261A
Other languages
Japanese (ja)
Other versions
JP4903358B2 (en
Inventor
Ikoku Go
偉国 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003309261A priority Critical patent/JP4903358B2/en
Publication of JP2005080015A publication Critical patent/JP2005080015A/en
Application granted granted Critical
Publication of JP4903358B2 publication Critical patent/JP4903358B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device and method thereof which generate a virtual view point image when an imaging object is imaged from an arbitrary virtual view point position by at least two live-action cameras. <P>SOLUTION: An imaging device 1 in which a plurality of cameras imaging an imaging object are arranged is provided with a controller 10 controlling an imaging direction and an imaging angle of view for a plurality of cameras according to a movement of the imaging object, an image-to-image associating portion 26 obtaining an association point between images based on an image taken by a plurality of cameras controlled by the controller 10, and a virtual view point image generating portion 28 generating a virtual view point image based on the associating point obtained by the image-to-image associating portion 26. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、例えば、スポーツ観戦において、複数のカメラにより撮像された画像(多視点画像)に基づき、仮想的な撮像位置から撮像対象を撮像したような効果をもたらす撮像装置及び方法に関する。   The present invention relates to an imaging apparatus and method that provide an effect of capturing an imaging target from a virtual imaging position based on images (multi-viewpoint images) captured by a plurality of cameras, for example, in sports watching.

放送事業者は、競技場で行われているスポーツや劇場で行われている演劇を競技場又は劇場に設置されている実写カメラで撮影し、撮影した画像を所定の方法で外部に送信する。ユーザは、上述のように送信されてきた画像を所定の方法でディスプレイ等に表示させ、遠隔地で行われているスポーツや演劇を鑑賞する。   The broadcaster photographs a sport performed at a stadium or a theater performed at a theater with a live-action camera installed at the stadium or theater, and transmits the captured image to the outside by a predetermined method. The user displays the image transmitted as described above on a display or the like by a predetermined method, and appreciates a sport or a play being performed at a remote place.

ところで、放送事業者は、競技場で行われているスポーツの様子を中継する場合、プレーの妨害をしない位置、すなわちプレーヤから所定距離だけ離れた位置から撮影することになる。したがって、ユーザが鑑賞する画像は、プレーヤから所定距離だけ離れた位置のものになるため、真に迫った臨場感をユーザに与えることが困難であった。   By the way, when a broadcaster relays the state of a sport being performed at a stadium, the broadcaster shoots from a position where play is not disturbed, that is, a position away from the player by a predetermined distance. Therefore, since the image that the user appreciates is at a position away from the player by a predetermined distance, it is difficult to give the user a real sense of reality.

そこで、真に迫った臨場感を出すために、競技場の複数の場所に実写カメラを設置し、プレーヤを様々な角度(視点)から撮影し、撮影した画像に基づきプレーヤの3D(3Dimension)モデルを構築し、仮想的な視点位置で撮影したような画像を提示する技術(自由視点画像生成技術)がある(例えば、非特許文献1参照)。   Therefore, in order to give a realistic sense of realism, live-action cameras are installed at multiple locations in the stadium, the player is photographed from various angles (viewpoints), and the player's 3D (3Dimension) model is based on the captured images. And a technique (free viewpoint image generation technique) that presents an image that is captured at a virtual viewpoint position (see, for example, Non-Patent Document 1).

また、任意の視点画像生成技術として、モデルベースの手法(例えば、非特許文献2参照)やイメージベースの手法(例えば、非特許文献3、4参照)がある。これらの技術を用いれば、あたかもプレーヤの直ぐ側で実写カメラを回しているかのような画像を得ることができる。   Further, as an arbitrary viewpoint image generation technique, there are a model-based method (for example, see Non-Patent Document 2) and an image-based method (for example, Non-Patent Documents 3 and 4). By using these techniques, it is possible to obtain an image as if a live-action camera is rotating on the immediate side of the player.

しかし、自由視点画像生成技術は、高精度な3Dモデルを生成しテクスチャを提示することが容易でなく、高価な機器が必要となる。   However, in the free viewpoint image generation technique, it is not easy to generate a highly accurate 3D model and present a texture, and an expensive device is required.

また、モデルベースの手法では、シーンの3Dモデルを精度良く推定することが困難であり、3Dモデルを高速に推移することが困難であり、また、イメージベースの手法では、膨大な数の実写カメラが必要であり、被写体の解像度を上げるために、広角で高解像度カメラが必要となり実用的でない。   Also, with the model-based method, it is difficult to accurately estimate the 3D model of the scene, and it is difficult to shift the 3D model at high speed. With the image-based method, a huge number of live-action cameras are used. In order to increase the resolution of the subject, a wide-angle and high-resolution camera is required, which is not practical.

多視点画像の融合によるスポーツシーンの自由視点画像生成、画像の認識・理解シンポジウム(MIRU2000)、北原格、大田友一、金出武雄Free viewpoint image generation for sports scenes by fusing multi-viewpoint images, Image Recognition and Understanding Symposium (MIRU2000), Satoshi Kitahara, Yuichi Ota, Takeo Kanade Spatio-Temporal View Interpolation,Tech Report CMU-RI-TR-01-35,Robotics Institute,CMUSpatio-Temporal View Interpolation, Tech Report CMU-RI-TR-01-35, Robotics Institute, CMU Light Field Rendering,Siggraph'96 Processing,pp.31-42,(1996)Light Field Rendering, Siggraph '96 Processing, pp. 31-42, (1996) The Lumigraph,Siggraph'96 Processing,pp.43-54,(1996)The Lumigraph, Siggraph '96 Processing, pp. 43-54, (1996)

解決しようとする問題点は、撮像対象の移動に応じて撮像方向及び撮影画角が変動し、また、位置が移動する複数台の実写カメラにより撮像対象を撮像し、撮像した画像を用いて、任意の仮想的な視点位置から当該撮像対象を撮像した場合の画像を生成する点にある。   The problem to be solved is that the imaging direction and the shooting angle of view fluctuate according to the movement of the imaging target, and the imaging target is captured by a plurality of live-action cameras whose positions move, and the captured image is used. The point is that an image is generated when the imaging target is imaged from an arbitrary virtual viewpoint position.

本発明に係る撮像装置は、上述の課題を解決するために、撮像対象を撮像するカメラが複数台配されてなる撮像装置において、上記撮像対象の動きに応じて上記複数のカメラごとの撮像方向及び撮影画角を制御する制御手段と、上記制御手段により制御された上記複数のカメラにより撮像された画像に基づき、画像間の対応点を求める画像間対応付け手段と、上記画像間対応付け手段により求めた対応点に基づき、仮想視点画像を生成する仮想視点画像生成手段とを備える。   In order to solve the above-described problem, an imaging apparatus according to the present invention is an imaging apparatus in which a plurality of cameras that capture an imaging target are arranged. The imaging direction of each of the plurality of cameras according to the movement of the imaging target. And a control means for controlling the shooting angle of view, an inter-image correlation means for obtaining corresponding points between the images based on images taken by the plurality of cameras controlled by the control means, and the inter-image correlation means And a virtual viewpoint image generating means for generating a virtual viewpoint image based on the corresponding points obtained by the above.

また、本発明に係る撮像方法は、上述の課題を解決するために、複数の撮像部により撮像対象を撮像する撮像方法において、上記撮像対象の動きに応じて上記複数の撮像部ごとの撮像方向及び撮影画角を制御し、制御された上記複数の撮像部により撮像された画像に基づき、画像間の対応点を求め、上記求めた対応点に基づき、仮想視点画像を生成する。   In order to solve the above-described problem, the imaging method according to the present invention is an imaging method in which an imaging target is imaged by a plurality of imaging units. Then, the shooting angle of view is controlled, the corresponding points between the images are obtained based on the images taken by the plurality of controlled imaging units, and the virtual viewpoint image is generated based on the obtained corresponding points.

本発明に係る撮像装置及び方法は、競技場等で行われている競技の様子を複数台の実写カメラで撮像し、撮像した画像に基づき、仮想的な視点位置を任意の位置に生成し、当該任意の位置から競技の様子を撮像した場合の画像を生成するので、実写カメラよりも広い視野角で撮像された画像を得ることができ、かつ、実写カメラとほぼ同レベルの空間解像度を得ることができる。したがって、本発明に係る撮像装置及び方法は、例えば、スポーツ観戦などにおいて、観客があたかも競技場の中にいるように観戦することが可能となり、より臨場感のあるスポーツ観戦が実現できる。   The imaging apparatus and method according to the present invention captures a state of a competition being performed at a stadium or the like with a plurality of live-action cameras, generates a virtual viewpoint position at an arbitrary position based on the captured images, Since an image is captured when the state of the game is captured from the arbitrary position, an image captured with a wider viewing angle than that of the live-action camera can be obtained, and a spatial resolution almost the same level as that of the live-action camera can be obtained. be able to. Therefore, the imaging apparatus and method according to the present invention make it possible to watch a spectator as if they are in a stadium, for example, in sports watching, and to realize a more realistic sports watching.

以下、本発明を実施するための最良の形態として撮像装置及び方法について述べる。   Hereinafter, an imaging apparatus and method will be described as the best mode for carrying out the present invention.

本発明に係る撮像装置では、図1に示すように撮像対象を撮像する撮像部10と、撮像部10で撮像された画像に所定の処理を行う処理部11と、処理後の画像を外部に出力する出力部12とを備える。   In the imaging apparatus according to the present invention, as shown in FIG. 1, an imaging unit 10 that captures an imaging target, a processing unit 11 that performs a predetermined process on an image captured by the imaging unit 10, and a processed image externally And an output unit 12 for outputting.

撮像部10は、撮像対象を撮像する複数台の実写カメラcam_1〜cam_kを有するカメラ部20と、実写カメラcam_1〜cam_kで撮像対象を撮像する際の撮像タイミングを決定するための同期信号を生成する同期信号生成部21と、仮想的に生成される仮想視点位置、撮像対象及び解像度を指定する指定部22と、指定部22の指定に基づき各実写カメラcam_1〜cam_kの撮影方向(水平方向及び垂直方向)、撮影画角並びに位置を設定する設定部23と、設定部23の設定に応じて各実写カメラcam_1〜cam_kを駆動する駆動部24とを備える。なお、指定部22は、仮想視点位置、撮像対象及び解像度の指定がない場合には、予め定められている仮想視点位置、撮像対象及び解像度を設定部23に供給することとする。また、撮像部10は、各実写カメラcam_1〜cam_kで撮影した画像を保存するためのHDD(Hard Disc)等の記憶部を有していても良い。   The imaging unit 10 generates a synchronization signal for determining an imaging timing when imaging an imaging target with the camera unit 20 having a plurality of shooting cameras cam_1 to cam_k that capture the imaging target and the shooting cameras cam_1 to cam_k. The synchronization signal generation unit 21, a virtually generated virtual viewpoint position, a designation unit 22 that designates an imaging target and resolution, and the shooting directions (horizontal and vertical) of each of the live-action cameras cam_1 to cam_k based on the designation of the designation unit 22 Direction), shooting angle of view, and position, and a drive unit 24 that drives each of the live-action cameras cam_1 to cam_k according to the settings of the setting unit 23. The designation unit 22 supplies the preset virtual viewpoint position, imaging target, and resolution to the setting unit 23 when the virtual viewpoint position, imaging target, and resolution are not specified. In addition, the imaging unit 10 may include a storage unit such as an HDD (Hard Disc) for storing images captured by the live-action cameras cam_1 to cam_k.

処理部11は、撮像対象を撮像するために所定の場所に配置されているカメラどうしの幾何学位置関係やそれぞれの実写カメラcam_1〜cam_kのレンズ収差等のパラメータを算出するキャリブレーション部25と、キャリブレーション部25で算出されたパラメータに基づき、各実写カメラcam_1〜cam_kで撮像した画像から対応点を求める画像対応付け部26と、画像対応付け部26で求めた対応点に基づき、仮想的に生成される仮想視点位置Aにおける光線情報を推定する推定部27と、推定部27で推定された仮想視点位置Aにおける光線情報に基づき仮想視点画像を生成する仮想視点画像生成部28と、各実写カメラcam_1〜cam_kで撮像された画像又は仮想視点画像生成部28で生成された仮想視点画像の何れかを選択する選択部29とを備える。なお、選択部29は、例えば、5台の実写カメラcam_1〜cam_5により撮像対象を撮像した場合には、それぞれの実写カメラcam_1〜cam_5で撮影した画像と当該画像から生成した仮想視点画像の計6つの画像の中から一つの画像を選択する。   The processing unit 11 includes a calibration unit 25 that calculates parameters such as a geometric positional relationship between cameras arranged at a predetermined location for imaging an imaging target and lens aberrations of the respective live-action cameras cam_1 to cam_k, Based on the parameters calculated by the calibration unit 25, the image association unit 26 that obtains corresponding points from images captured by the respective live-action cameras cam_1 to cam_k, and the corresponding points obtained by the image association unit 26 are virtually used. An estimation unit 27 that estimates ray information at the generated virtual viewpoint position A, a virtual viewpoint image generation unit 28 that generates a virtual viewpoint image based on the ray information at the virtual viewpoint position A estimated by the estimation unit 27, and each live-action image Images taken by the cameras cam_1 to cam_k or virtual viewpoint images generated by the virtual viewpoint image generator 28 And a selection section 29 for selecting either. For example, when the imaging target is imaged by five live-action cameras cam_1 to cam_5, the selection unit 29 includes a total of 6 images captured by the respective real-image cameras cam_1 to cam_5 and virtual viewpoint images generated from the images. Select one image from two images.

キャリブレーション部25は、既知の画像パターンを撮影し、それらの画像パターンから画像処理技術によってカメラ間の位置関係及びカメラのレンズ収差等の所定のパラメータを求め、画像対応付け部26に供給する。画像対応付け部26は、キャリブレーション部25から供給されたパラメータに基づき、隣接(左右または上下)の画像間のパラメータを補正し、補正後の画像における画素間の対応付けを求める。また、選択部29は、見たい視点の各実写カメラcam_1〜cam_kで撮像した画像を出力するか、または見たい視点の各カメラペア(立体)映像を出力するかを選択することもできる。   The calibration unit 25 shoots known image patterns, obtains predetermined parameters such as a positional relationship between cameras and lens aberrations of the cameras from the image patterns using an image processing technique, and supplies them to the image association unit 26. The image association unit 26 corrects parameters between adjacent (left and right or upper and lower) images based on the parameters supplied from the calibration unit 25, and obtains associations between pixels in the corrected image. The selection unit 29 can also select whether to output an image captured by each of the live-action cameras cam_1 to cam_k of the viewpoint to be viewed or to output each camera pair (stereoscopic) video of the viewpoint to be viewed.

出力部12は、選択部29から供給される画像をディスプレイ等の表示部に出力する画像出力端子aと、選択部29から供給される画像をネットワークを介して接続されている機器に送信する画像送信端子bを備える。   The output unit 12 outputs an image supplied from the selection unit 29 to a display unit such as a display, and an image to send the image supplied from the selection unit 29 to a device connected via a network. A transmission terminal b is provided.

ここで、複数の実写カメラcam_1〜cam_kを用いて仮想的な視点位置から撮像対象を撮像した場合の仮想視点画像を生成する概念について図2(a)を用いて説明する。なお、仮想視点位置Aに仮想的に生成されるカメラを仮想カメラcvという。また、実写カメラcam_1〜cam_kは、図2(b)に示すように平面上に配されている。   Here, a concept of generating a virtual viewpoint image when an imaging target is imaged from a virtual viewpoint position using a plurality of live-action cameras cam_1 to cam_k will be described with reference to FIG. A camera virtually generated at the virtual viewpoint position A is referred to as a virtual camera cv. Further, the live-action cameras cam_1 to cam_k are arranged on a plane as shown in FIG.

仮想視点位置Aに生成される仮想カメラcvにより撮像対象を撮像したときの仮想視点画像は、仮想カメラcvの光学中心を通る光線上の画像値を求めることで生成することができる。つまり、仮想カメラcvの中心を通る全ての光線を複数の実写カメラcam_1〜cam_kでサンプリングし、処理部11で所定の処理を行えば、仮想視点位置Aにおける仮想視点画像(光線情報)を生成することができる。なお、計測空間内での光線の屈折等は無視する。   A virtual viewpoint image when the imaging target is imaged by the virtual camera cv generated at the virtual viewpoint position A can be generated by obtaining an image value on a ray passing through the optical center of the virtual camera cv. That is, if all light rays passing through the center of the virtual camera cv are sampled by a plurality of live-action cameras cam_1 to cam_k and predetermined processing is performed by the processing unit 11, a virtual viewpoint image (light ray information) at the virtual viewpoint position A is generated. be able to. Note that the refraction of light rays in the measurement space is ignored.

ところで、仮想視点位置Aにおいて得られる仮想視点画像の解像度をXsize×Ysizeとすると、これらの光線をすべて記録するためには、原理的にXsize×Ysize台の実写カメラが必要となり、現実的ではない。   By the way, if the resolution of the virtual viewpoint image obtained at the virtual viewpoint position A is Xsize × Ysize, in order to record all these rays, in principle, a live-action camera of Xsize × Ysize units is required, which is not realistic. .

また、図3に示すように、仮想カメラcvの視野角が、実写カメラcam_1〜cam_kの視野角よりも大きく設定した場合、仮想カメラcvで撮像した仮想視点画像の一部が再生できなくなる。つまり、図中のRay1の光線情報は、どの実写カメラcam_1〜cam_kでも記録されないので、その光線情報を再生することができない。したがって、仮想カメラcvで撮像した画像のすべてを再生するためには、仮想カメラcvの視野角は、実写カメラcam_1〜cam_kの視野角より小さくする必要がある。   Also, as shown in FIG. 3, when the viewing angle of the virtual camera cv is set larger than the viewing angles of the live-action cameras cam_1 to cam_k, a part of the virtual viewpoint image captured by the virtual camera cv cannot be reproduced. In other words, the ray information of Ray1 in the figure is not recorded by any of the live-action cameras cam_1 to cam_k, so that the ray information cannot be reproduced. Therefore, in order to reproduce all the images captured by the virtual camera cv, the viewing angle of the virtual camera cv needs to be smaller than the viewing angles of the live-action cameras cam_1 to cam_k.

また、実写カメラcam_1〜cam_kが並んでいる位置(X軸)から距離zvだけ前方の位置を仮想カメラcvが仮想的に生成される仮想視点位置Aとし、撮像対象Pまでの距離をz0とした場合、仮想視点位置Aでの1画素に対する空間解像度Rv(横方向)と実写カメラcam_1〜cam_5の位置での1画素に対する空間解像度Rr(横方向)はそれぞれ下記のように求めることができる。
Rv=(z0/f1)×(W/Xsize)・・・(1)
Rr=((z0+zv)/f2)×(W/Xsize)・・・(2)
ここで、f1は、仮想カメラcvのレンズ長であり、f2は、実写カメラcam_1〜cam_kのレンズ長である。Wは、横方向のCCDサイズで、Xsizeは、横方向の画素数である。つまり、仮想カメラcvにより撮像される仮想視点画像と実写カメラcam_1〜cam_kにより撮像される画像を同じ空間解像度で得るためには、実写カメラcam_1〜cam_kの解像度(画素数)は、仮想カメラcvの画素数の(z0+zv)/z0倍が必要となる。
Further, a position in front of the position (X axis) where the live-action cameras cam_1 to cam_k are arranged by a distance zv is a virtual viewpoint position A where the virtual camera cv is virtually generated, and a distance to the imaging target P is z0. In this case, the spatial resolution Rv (horizontal direction) for one pixel at the virtual viewpoint position A and the spatial resolution Rr (horizontal direction) for one pixel at the positions of the live-action cameras cam_1 to cam_5 can be obtained as follows.
Rv = (z0 / f1) × (W / Xsize) (1)
Rr = ((z0 + zv) / f2) × (W / Xsize) (2)
Here, f1 is the lens length of the virtual camera cv, and f2 is the lens length of the live-action cameras cam_1 to cam_k. W is the horizontal CCD size, and Xsize is the number of pixels in the horizontal direction. That is, in order to obtain the virtual viewpoint image captured by the virtual camera cv and the images captured by the live-action cameras cam_1 to cam_k with the same spatial resolution, the resolution (number of pixels) of the live-action cameras cam_1 to cam_k is determined by the virtual camera cv. (Z0 + zv) / z0 times the number of pixels is required.

したがって、仮想視点位置Aの仮想カメラcvにより、実写カメラcam_1〜cam_kとほぼ同程度の高解像度で、かつ、実写カメラcam_1〜cam_kよりも広視野角の仮想視点画像を得るためには、膨大な数の超高解像度でかつ広視野角の実写カメラcam_1〜cam_kが必要となり、撮像装置1を構成するのに莫大な費用が掛ってしまう。   Therefore, in order to obtain a virtual viewpoint image having a high resolution almost the same as that of the live-action cameras cam_1 to cam_k and a wider viewing angle than the live-action cameras cam_1 to cam_k by the virtual camera cv at the virtual viewpoint position A, A large number of ultra-high resolution and wide-viewing-angle live-action cameras cam_1 to cam_k are required, and enormous costs are required to configure the imaging device 1.

そこで、本発明に係る撮像装置1では、低解像度(画素数の少ない)でかつ視野角の狭い実写カメラを少なくとも2台用いて、広視野角で解像度の高い(画素数の多い)画像を得るものである。   Therefore, in the imaging device 1 according to the present invention, an image with a wide viewing angle and a high resolution (a large number of pixels) is obtained by using at least two live-action cameras with a low resolution (a small number of pixels) and a narrow viewing angle. Is.

ここで、仮想カメラcvの視野角と実写カメラcam_1〜cam_kの視野角及び水平位置及び垂直位置等の関係を図4を用いて説明する。なお、以下では、仮想カメラcvは、実写カメラcam_1と実写カメラcam_2が並んでいる位置Xから距離zvだけ前方に仮想的に生成されるものとする。また、実写カメラcam_1及び実写カメラcam_2よりは、仮想カメラcvの視野角α(レンズ長fv)が広くなるようにそれぞれ所定の位置に設定し、垂直方向及び水平方向を所定の方向に設定してあることとする。   Here, the relationship between the viewing angle of the virtual camera cv and the viewing angles of the live-action cameras cam_1 to cam_k, the horizontal position, and the vertical position will be described with reference to FIG. In the following, it is assumed that the virtual camera cv is virtually generated forward by a distance zv from the position X where the live-action camera cam_1 and the live-action camera cam_2 are arranged. In addition, the virtual camera cv is set to a predetermined position so that the viewing angle α (lens length fv) is wider than the real camera cam_1 and the real camera cam_2, and the vertical direction and the horizontal direction are set to predetermined directions. Suppose that there is.

仮想視点位置Aから撮像対象を撮像した場合の仮想視点画像(光学中心)を生成するために、仮想カメラcvの視野角α(α=2×arctan(p/(2×fv)))をn等分にし、各α/nの小さな視野角内の仮想視点画像を、実写カメラで撮像した画像から生成する。なお、本願発明に係る撮像装置1では、各α/nの小さな視野角内の仮想視点画像は、最低2台の実写カメラがあれば生成することができる。   In order to generate a virtual viewpoint image (optical center) when the imaging target is imaged from the virtual viewpoint position A, the viewing angle α (α = 2 × arctan (p / (2 × fv))) of the virtual camera cv is set to n. A virtual viewpoint image within a small viewing angle of each α / n is generated equally from images captured by a live-action camera. In the imaging apparatus 1 according to the present invention, a virtual viewpoint image within a small viewing angle of each α / n can be generated if there are at least two live-action cameras.

また、仮想視点位置Aから得られたk番目の仮想視点画像の各画素p1〜p2を生成するのに必要な実写カメラcam_1と実写カメラcam_2の視野角γは下記式を用いて求める。
γ=β=arctan(fv/p1)−arctan(fv/p2)・・・(3)
ここで、fvは、仮想カメラcvのレンズ長で、p1とp2は、仮想視点位置Aにおけるk番目の仮想視点画像の左側と右側の画素位置を示す。
In addition, the viewing angles γ of the live-action camera cam_1 and the live-action camera cam_2 necessary to generate the pixels p1 to p2 of the k-th virtual viewpoint image obtained from the virtual viewpoint position A are obtained using the following equation.
γ = β = arctan (fv / p1) −arctan (fv / p2) (3)
Here, fv is the lens length of the virtual camera cv, and p1 and p2 indicate the left and right pixel positions of the kth virtual viewpoint image at the virtual viewpoint position A.

また、このときの実写カメラcam_1及び実写カメラcam_2の設置位置と光軸の水平方向は次のように求める。仮想カメラcvの光学中心を基準点とし、当該基準点の垂線が複数の実写カメラが並んでいる位置(X軸)と交わる点から実写カメラcam_1までの距離x1は、
x1=(p1×zv)/fv
で求め、また、基準点の垂線が複数の実写カメラが並んでいる位置(X軸)と交わる点から実写カメラcam_2までの距離x2は、
x2=(p2×zv)/fv
で求める。また、実写カメラcam_1の光軸の水平方向(θ1−γ/2)は、
θ1−γ/2=arctan(zv/x1)−γ/2
で求め、実写カメラcam_2の光軸の水平方向(θ2+γ/2)は、
θ2+γ/2=arctan(zv/x2)+γ/2
で求める。
Further, the installation position of the live-action camera cam_1 and the live-action camera cam_2 and the horizontal direction of the optical axis at this time are obtained as follows. The distance x1 from the point where the optical center of the virtual camera cv is the reference point and the perpendicular of the reference point intersects with the position (X-axis) where a plurality of the live-action cameras are lined up to the live-action camera cam_1 is
x1 = (p1 × zv) / fv
Further, the distance x2 from the point where the perpendicular of the reference point intersects with the position (X axis) where a plurality of live-action cameras are lined up to the live-action camera cam_2 is
x2 = (p2 × zv) / fv
Ask for. The horizontal direction (θ1−γ / 2) of the optical axis of the live-action camera cam_1 is
θ1-γ / 2 = arctan (zv / x1) −γ / 2
The horizontal direction (θ2 + γ / 2) of the optical axis of the live-action camera cam_2 is
θ2 + γ / 2 = arctan (zv / x2) + γ / 2
Ask for.

なお、光軸の垂直方向の算出も上述と同様に類推可能である。また、上述では、3次元空間内における任意の位置にある撮像対象を仮想カメラcvで撮像した場合の仮想視点画像(光線)の情報を復元する例について、実写カメラcam_1〜cam_kの視野角γと、仮想視点位置Aから実写カメラcam_1〜cam_kが並んでいる位置(X軸)までの垂線の長さ(距離)zvと、仮想視点位置Aの光学中心(基準点)の垂線と複数の実写カメラcam_1〜cam_kが並んでいる位置(X軸)の交点から各実写カメラcam_1〜cam_kまでの距離xと、各実写カメラcam_1〜cam_kの光軸の水平方向(θ−γ/2)の算出方法を示したが、撮像対象までの距離(奥行き)が限定される場合には、より狭い視野角を持つ実写カメラcam_1〜cam_kを使用し、仮想視点位置Aに仮想的に生成される仮想カメラcvによる仮想視点画像(光線)の各情報を求める。   The calculation in the direction perpendicular to the optical axis can be analogized in the same manner as described above. In addition, in the above description, with respect to an example in which the information of the virtual viewpoint image (light ray) when the imaging target at an arbitrary position in the three-dimensional space is imaged by the virtual camera cv, the viewing angles γ of the live-action cameras cam_1 to cam_k The vertical length (distance) zv from the virtual viewpoint position A to the position (X axis) where the live-action cameras cam_1 to cam_k are arranged, the perpendicular of the optical center (reference point) of the virtual viewpoint position A, and a plurality of live-action cameras A method of calculating the distance x from the intersection of the positions (X axis) where cam_1 to cam_k are arranged to each of the live-action cameras cam_1 to cam_k and the horizontal direction (θ−γ / 2) of the optical axis of each of the live-action cameras cam_1 to cam_k. As shown, when the distance (depth) to the imaging target is limited, the live-view cameras cam_1 to cam_k having narrower viewing angles are used, and the virtual viewpoint position A Request the information of the virtual viewpoint image by the virtual camera cv to be virtually generated (light).

ここで、仮想視点位置Aから撮影対象までの距離をz0に限定したときの例について図5を用いて説明する。   Here, an example in which the distance from the virtual viewpoint position A to the shooting target is limited to z0 will be described with reference to FIG.

実写カメラcam_1〜cam_kが並んでいる位置Xから距離zvだけ前方に仮想的に生成する仮想カメラcvの視野角α(レンズ長fv)を広くし、この仮想カメラcvにより撮像した場合の仮想視点画像(光学中心)を生成するために、上述と同様に、まず仮想カメラ映像の視野角α(α=2×arctan(p/(2×fv)))をn等分にし、各α/nの小さな視野角内の仮想視点画像を、実写カメラcam_1及び実写カメラcam_2で撮像した画像から生成する。   A virtual viewpoint image when the viewing angle α (lens length fv) of the virtual camera cv virtually generated forward by the distance zv from the position X where the live-action cameras cam_1 to cam_k are arranged is widened and imaged by the virtual camera cv. In order to generate the (optical center), the viewing angle α (α = 2 × arctan (p / (2 × fv))) of the virtual camera image is first divided into n equal parts as described above, and each α / n A virtual viewpoint image within a small viewing angle is generated from images captured by the live-action camera cam_1 and the live-action camera cam_2.

また、仮想視点位置Aから得られたk番目の仮想視点画像の各画素p1〜p2を生成するのに必要な実写カメラcam_1の視野角γ1と実写カメラcam_2の視野角γ2を下記式を用いて求める。
γ1=arctan(fv/p1)−arctan(z0/((z0×p2)/fv−(zv×w)/(zv+z0)))・・・(4)
γ2=arctan(z0/((z0×p1)/fv+(zv×w)/(zv+z0)))−arctan(fv/p2)・・・(5)
ここで、fvは、仮想カメラのレンズ長を示し、p1とp2は、仮想視点位置Aにおけるk番目の仮想視点画像の左側と右側の画素位置を示す。また、wは、仮想視点位置Aから撮像対象までの距離(奥行き)z0の横方向の撮影領域であり、下記の式で求められる。
w=(p2−p1)×z0/fv・・・(6)
また、このときの実写カメラcam_1〜cam_kの設置位置と水平方向は次のように求められる。仮想カメラcvの光学中心(基準点)の垂線が実写カメラcam_1〜cam_kが並んでいる位置(X軸)と交わる点から実写カメラcam_1までの距離x1は、
x1=(p1×zv)/fv・・・(7)
で求まり、また、基準点の垂線が実写カメラcam_1〜cam_kが並んでいる位置(X軸)と交わる点から実写カメラcam_2までの距離x2は、
x2=(p2×zv)/fv・・・(8)
で求まる。また、実写カメラcam_1の光軸の水平方向(θ1−γ1/2)は、
θ1−γ1/2=arctan(zv/x1)−γ1/2・・・(9)
で求まり、実写カメラcam_2の光軸の水平方向(θ2−γ1/2)は、
θ2+γ2/2=arctan(zv/x2)+γ2/2・・・(10)
で求まる。なお、光軸の垂直方向の算出も上述と同様に類推可能である。
Further, the viewing angle γ1 of the live-action camera cam_1 and the viewing angle γ2 of the live-action camera cam_2 necessary to generate the pixels p1 to p2 of the k-th virtual viewpoint image obtained from the virtual viewpoint position A are expressed by the following equations. Ask.
γ1 = arctan (fv / p1) −arctan (z0 / ((z0 × p2) / fv− (zv × w) / (zv + z0))) (4)
γ2 = arctan (z0 / ((z0 × p1) / fv + (zv × w) / (zv + z0))) − arctan (fv / p2) (5)
Here, fv indicates the lens length of the virtual camera, and p1 and p2 indicate the pixel positions on the left and right sides of the kth virtual viewpoint image at the virtual viewpoint position A. Further, w is a horizontal imaging region having a distance (depth) z0 from the virtual viewpoint position A to the imaging target, and is obtained by the following equation.
w = (p2-p1) × z0 / fv (6)
In addition, the installation positions and horizontal directions of the live-action cameras cam_1 to cam_k at this time are obtained as follows. The distance x1 from the point where the perpendicular of the optical center (reference point) of the virtual camera cv intersects the position (X axis) where the live-camera cameras cam_1 to cam_k are arranged to the real-camera camera cam_1 is
x1 = (p1 × zv) / fv (7)
Further, the distance x2 from the point where the perpendicular of the reference point intersects the position (X axis) where the live-camera cameras cam_1 to cam_k are arranged to the live-camera camera cam_2 is
x2 = (p2 × zv) / fv (8)
It is obtained by. In addition, the horizontal direction (θ1−γ1 / 2) of the optical axis of the live-action camera cam_1 is
θ1-γ1 / 2 = arctan (zv / x1) −γ1 / 2 (9)
The horizontal direction (θ2-γ1 / 2) of the optical axis of the live-action camera cam_2 is
θ2 + γ2 / 2 = arctan (zv / x2) + γ2 / 2 (10)
It is obtained by. The calculation in the direction perpendicular to the optical axis can be analogized in the same manner as described above.

つぎに、仮想視点位置Aにおける仮想カメラcvにより、実写カメラcam_1〜cam_kよりも広視野角で、かつ、高解像度の画像を得るための例について図6(a)を用いて説明する。実写カメラcam_1〜cam_kの解像度をVGAサイズ(640×480)とし、CCDサイズを、図6(b)に示すように、1/3インチ(4.8mm×3.2mm)とし、レンズ長を22.5mmとすると、式(2)から1画素の被写体の空間解像度は1cmになる。   Next, an example in which a virtual camera cv at the virtual viewpoint position A is used to obtain an image with a wider viewing angle and higher resolution than those of the live-action cameras cam_1 to cam_k will be described with reference to FIG. The resolution of the live-action cameras cam_1 to cam_k is VGA size (640 × 480), the CCD size is 1/3 inch (4.8 mm × 3.2 mm), and the lens length is 22 as shown in FIG. 6B. Assuming .5 mm, the spatial resolution of a one-pixel subject is 1 cm from equation (2).

そこで、実写カメラcam_1〜cam_kが並んでいる位置(X軸)の前方20m先の位置を仮想視点位置Aとして、仮想的に生成した仮想カメラcvから撮像対象までの距離を10mとし、同じ撮像対象の1画素の空間解像度を1cmにする場合、実写カメラcam_1〜cam_kと同じVGAサイズの仮想視点位置Aにある画像を生成するために、式(1)と式(2)の計算によって実写カメラcam_1〜cam_kのCCDサイズの3倍に相当する大きさ14.4×9.6mmが必要となる。また、仮想カメラcvのレンズ長を7.5mmとすれば、同じ空間解像度でHDTV程度の解像度(1920×1080)の画像を生成することができる。なお、以上の説明は、理解しやすくする都合上、1次元(横方向)のカメラ配置を例にしているが、実際には2次元のカメラ配置により行う。   Therefore, the position 20 m ahead of the position (X axis) where the live-action cameras cam_1 to cam_k are arranged is the virtual viewpoint position A, the distance from the virtually generated virtual camera cv to the imaging target is 10 m, and the same imaging target When the spatial resolution of one pixel of 1 cm is 1 cm, in order to generate an image at the virtual viewpoint position A having the same VGA size as that of the live-action cameras cam_1 to cam_k, the live-action camera cam_1 is calculated by the calculation of the equations (1) and (2). A size of 14.4 × 9.6 mm corresponding to three times the CCD size of ~ cam_k is required. Further, if the lens length of the virtual camera cv is 7.5 mm, an image having the same spatial resolution and a resolution equivalent to HDTV (1920 × 1080) can be generated. Note that the above description uses a one-dimensional (lateral) camera arrangement as an example for the sake of easy understanding, but in actuality, a two-dimensional camera arrangement is used.

ここで、撮像装置1により仮想視点画像を生成するまでの手順について図7及び図8に示すフローチャートを用いて説明する。なお、撮像装置1は、図9に示すように、サッカー場に設置されているものとし、複数台の実写カメラcam_1〜cam_kが一方のゴール裏に配置されているものとする。また、撮像装置1に備えれている各部の操作をする者を操作者と呼ぶ。   Here, a procedure until a virtual viewpoint image is generated by the imaging apparatus 1 will be described with reference to flowcharts shown in FIGS. As shown in FIG. 9, the imaging device 1 is installed on a soccer field, and a plurality of live-action cameras cam_1 to cam_k are arranged behind one goal. A person who operates each unit provided in the imaging apparatus 1 is called an operator.

ステップS1において、操作者は、仮想視点位置、生成する仮想視点画像の解像度及び撮像対象を指定する。操作者は、例えば、サッカーボールや特定のプレーヤを撮像対象として指定し、その撮像対象から所定距離離れた位置(高さ)を仮想視点位置として指定し、その仮想視点位置から撮像対象を撮像した場合の仮想視点画像の解像度を指定する。   In step S1, the operator designates the virtual viewpoint position, the resolution of the generated virtual viewpoint image, and the imaging target. For example, the operator designates a soccer ball or a specific player as an imaging target, designates a position (height) that is a predetermined distance away from the imaging target as a virtual viewpoint position, and images the imaging target from the virtual viewpoint position. Specifies the resolution of the virtual viewpoint image.

ステップS2において、指定部22は、入力された仮想視点位置、解像度及び撮像対象を設定部23に供給する。   In step S <b> 2, the designation unit 22 supplies the input virtual viewpoint position, resolution, and imaging target to the setting unit 23.

ステップS3において、設定部23は、指定部22から供給された仮想視点位置に基づき仮想視点位置Aを決定する。   In step S <b> 3, the setting unit 23 determines the virtual viewpoint position A based on the virtual viewpoint position supplied from the specifying unit 22.

ステップS4において、設定部23は、決定した仮想視点位置Aに仮想的に生成する仮想カメラcvの光学中心を推定する。設定部23は、ステップS2で指定部22から供給された撮像対象と、ステップS3で決定した仮想視点位置Aから視野角(レンズ長)を決定し、光学中心を推定する。   In step S4, the setting unit 23 estimates the optical center of the virtual camera cv virtually generated at the determined virtual viewpoint position A. The setting unit 23 determines the viewing angle (lens length) from the imaging target supplied from the designation unit 22 in step S2 and the virtual viewpoint position A determined in step S3, and estimates the optical center.

ステップS5において、設定部23は、ステップS4で推定した光学中心を基準点として、当該基準点から実写カメラcam_1〜cam_kが並んでいる位置(X軸)までの距離zvと、各実写カメラcam_1〜cam_kの配置(間隔)と、各実写カメラcam_1〜cam_kごとの垂直方向及び水平方向とを決定し、駆動部24に供給する。   In step S5, the setting unit 23 uses the optical center estimated in step S4 as a reference point, the distance zv from the reference point to the position (X axis) where the live-action cameras cam_1 to cam_k are arranged, and the respective live-action cameras cam_1 to The arrangement (interval) of cam_k and the vertical and horizontal directions for each of the live-action cameras cam_1 to cam_k are determined and supplied to the drive unit 24.

ステップS6において、駆動部24は、設定部23から供給された各種の情報に基づき、各実写カメラcam_1〜cam_kを駆動する。   In step S <b> 6, the driving unit 24 drives each of the live-action cameras cam_1 to cam_k based on various information supplied from the setting unit 23.

ステップS7において、操作者は、撮像を開始する旨の命令を撮像装置1に行う。   In step S <b> 7, the operator issues a command to start imaging to the imaging apparatus 1.

ステップS8において、同期信号生成部21は、撮像を開始する旨の命令を受けたときに、同期信号を生成し、生成した同期信号を各実写カメラcam_1〜cam_kに供給する。   In step S8, when receiving a command to start imaging, the synchronization signal generation unit 21 generates a synchronization signal and supplies the generated synchronization signal to each of the live-action cameras cam_1 to cam_k.

ステップS9において、各実写カメラcam_1〜cam_kは、供給された同期信号に応じて撮像対象の撮像を開始する。なお、撮像装置1は、撮像対象を自動的に実写カメラcam_1〜cam_kで追尾するような構成でも良いし、操作者の操作に従って撮像対象を撮像するような構成であっても良い。各実写カメラcam_1〜cam_kは、撮像した画像を画像対応付け部26と選択部29に供給する。   In step S9, each of the live-action cameras cam_1 to cam_k starts imaging of the imaging target according to the supplied synchronization signal. The imaging apparatus 1 may be configured to automatically track the imaging target with the live-action cameras cam_1 to cam_k, or may be configured to capture the imaging target in accordance with an operation of the operator. Each of the live-action cameras cam_1 to cam_k supplies the captured image to the image association unit 26 and the selection unit 29.

ステップS10において、画像対応付け部26は、キャリブレーション部25から供給されたパラメータに基づき各実写カメラcam_1〜cam_kから供給された画像間で対応付けを行う。また、実写カメラcam_1〜cam_kが追尾カメラである場合、撮影された画像から特徴点を求めて、それらの特徴点を用いて、キャリブレーション部25でパラメータを求める必要がある。画像対応付け部26は、対応付けた情報を推定部27に供給する。   In step S <b> 10, the image association unit 26 performs association between images supplied from each of the live-action cameras cam_1 to cam_k based on the parameters supplied from the calibration unit 25. Further, when the live-action cameras cam_1 to cam_k are tracking cameras, it is necessary to obtain feature points from the captured images and obtain parameters using the calibration unit 25 using these feature points. The image association unit 26 supplies the associated information to the estimation unit 27.

ここで、キャリブレーション部25と画像対応付け部26の具体的な動作について説明する。キャリブレーション部25は、各実写カメラcam_1〜cam_kのレンズにおける色収差や歪み、光軸のずれをそれぞれの実写カメラcam_1〜cam_kごとにパラメータ化し、要求に応じて画像対応付け部26に供給する。   Here, specific operations of the calibration unit 25 and the image association unit 26 will be described. The calibration unit 25 parameterizes the chromatic aberration, distortion, and optical axis shift in the lenses of each of the live-action cameras cam_1 to cam_k for each of the live-action cameras cam_1 to cam_k, and supplies them to the image association unit 26 as required.

画像対応付け部26は、例えば、撮像対象であるサッカーボールを構成する同一の箇所を特徴点として抽出した場合にはかかる箇所にある画素位置と輝度成分を同時に各実写カメラcam_1〜cam_kで撮像された複数の画像間で抽出して、対応をとるようにする。   For example, when the same location constituting the soccer ball to be imaged is extracted as a feature point, the image association unit 26 simultaneously captures the pixel position and the luminance component at the location with each of the live-action cameras cam_1 to cam_k. Extract between multiple images and take action.

なお、キャリブレーション部25は、各実写カメラcam_1〜cam_kが固定カメラである場合、それらのカメラに関する各パラメータを図示しないROMやRAMに予め生成し格納しておいても良い。こうすることにより、パラメータ生成の時間を無くすことができ、画像対応付け部26で高速な画像対応付け処理を行わせることが可能となる。また、キャリブレーション部25は、各実写カメラcam_1〜cam_kが追尾カメラである場合、撮像した画像が供給される度にこれらのパラメータを求めることにより、画像対応付け部26において精度の高い補正処理を実現することができる。   Note that when each of the live-action cameras cam_1 to cam_k is a fixed camera, the calibration unit 25 may generate and store in advance parameters related to these cameras in a ROM or RAM (not shown). By doing so, the time for parameter generation can be eliminated, and the image association unit 26 can perform high-speed image association processing. Further, when each of the live-action cameras cam_1 to cam_k is a tracking camera, the calibration unit 25 obtains these parameters each time a captured image is supplied, thereby performing high-precision correction processing in the image association unit 26. Can be realized.

ステップS11において、推定部27は、画像対応付け部26から供給された情報に基づき、光線情報を推定する。推定部27は、推定した情報を仮想視点画像生成部28に供給する。   In step S <b> 11, the estimation unit 27 estimates light ray information based on the information supplied from the image association unit 26. The estimation unit 27 supplies the estimated information to the virtual viewpoint image generation unit 28.

ステップS12において、仮想視点画像生成部28は、推定部27から供給された推定情報に基づき、画像内挿(View Interpolation)により仮想視点画像を生成する。   In step S12, the virtual viewpoint image generation unit 28 generates a virtual viewpoint image by image interpolation (View Interpolation) based on the estimation information supplied from the estimation unit 27.

ステップS13において、仮想視点画像生成部28は、すべての光線方向・位置上の画素値が決定されたかどうかを判定する。決定されていればステップS14の工程に進み、決定されていなければステップS4の工程に戻る。   In step S <b> 13, the virtual viewpoint image generation unit 28 determines whether the pixel values on all the light ray directions / positions have been determined. If it has been determined, the process proceeds to step S14. If it has not been determined, the process returns to step S4.

ステップS14において、仮想視点画像生成部28は、生成した仮想視点画像を選択部29に供給する。なお、仮想視点画像生成部28で生成された仮想視点画像は、ステップS1で操作者が指定した仮想視点位置で実際に撮像した場合に得られる画像である。   In step S <b> 14, the virtual viewpoint image generation unit 28 supplies the generated virtual viewpoint image to the selection unit 29. Note that the virtual viewpoint image generated by the virtual viewpoint image generation unit 28 is an image obtained when an image is actually captured at the virtual viewpoint position designated by the operator in step S1.

ステップS15において、選択部29は、仮想視点画像生成部28から供給された仮想視点画像か、ステップS9で各実写カメラcam_1〜cam_kから供給された撮像画像のいずれかを選択し、出力部12に供給する。出力部12に供給された画像は、画像出力端子を介してディスプレイ等の表示部か、画像送信端子を介してネットワークに接続されている機器に供給される。   In step S15, the selection unit 29 selects either the virtual viewpoint image supplied from the virtual viewpoint image generation unit 28 or the captured image supplied from each of the live-action cameras cam_1 to cam_k in step S9, and outputs to the output unit 12. Supply. The image supplied to the output unit 12 is supplied to a display unit such as a display via an image output terminal or to a device connected to the network via an image transmission terminal.

なお、例えば、撮像装置1がネットワークを介して外部の機器と接続されている場合には、機器を所有しているユーザが仮想視点位置Aを指定することができるような構成であっても良い。この場合には、ユーザは、機器を操作して所定の方法により仮想視点位置Aをネットワークを介して撮像装置1に送信する。撮像装置1の指定部22は、ネットワークを介して供給された仮想視点位置Aとなるように位置情報を指定部22に供給する。そして、撮像装置1は、上記ステップS3〜ステップS15の各工程を経て、指定された仮想視点位置Aの仮想視点映像をユーザに送信する。   For example, when the imaging device 1 is connected to an external device via a network, a configuration in which the user who owns the device can specify the virtual viewpoint position A may be used. . In this case, the user operates the device and transmits the virtual viewpoint position A to the imaging device 1 via the network by a predetermined method. The designation unit 22 of the imaging apparatus 1 supplies position information to the designation unit 22 so as to be the virtual viewpoint position A supplied via the network. And the imaging device 1 transmits the virtual viewpoint image | video of the designated virtual viewpoint position A to a user through each process of said step S3-step S15.

上述した例では、図9に示すように、実写カメラの撮像範囲をフィールド内とし、一方のゴール裏に地面に対して水平方向に21台の実写カメラcam_x00〜cam_x20を設置し、実写カメラcam_x00の光学中心が他方のゴールラインに達する位置aから実写カメラcam_x20の光学中心が他方のゴールラインに達する位置bまでの距離は38.4mであり、実写カメラcam_x00の光学中心と実写カメラcam_x01の光学中心との角度は2.0℃であり、他方のゴールラインにおける実写カメラcam_x00と実写カメラcam_x01とで作られる視野幅は6.4mである。   In the above-described example, as shown in FIG. 9, the shooting range of the live-action camera is in the field, and 21 live-action cameras cam_x00 to cam_x20 are installed in the horizontal direction with respect to the ground behind one goal, and the live-action camera cam_x00 The distance from the position a where the optical center reaches the other goal line to the position b where the optical center of the live-action camera cam_x20 reaches the other goal line is 38.4 m, and the optical center of the live-action camera cam_x00 and the optical center of the live-action camera cam_x01 And the visual field width produced by the live-action camera cam_x00 and the live-action camera cam_x01 in the other goal line is 6.4 m.

また、各実写カメラの配列形態として、上述したように一方のゴール裏に地面に対して水平方向に配列されたものと、図10に示すように一方のゴール裏に地面に対して垂直方向に配列されたものが必要である。図10では、ゴールの高さが2.44mであるので、地面に対して垂直方向に配列されている実写カメラcam_y01〜cam_y05の内一番下にあるカメラ(実写カメラcam_y05)の高さは2.44mであり、仮想視点位置Aの高さは地面から3.5mであり、当該仮想視点位置Aを越えて他方のゴールラインに達した際の実写カメラcam_y05の撮像範囲は、4.8mであり、すべての実写カメラcam_y01〜cam_y05による撮像範囲は、最大21.72mである。   Also, as the arrangement form of each live-action camera, as described above, the one arranged behind one goal in the horizontal direction with respect to the ground, and as shown in FIG. An array is required. In FIG. 10, since the height of the goal is 2.44 m, the height of the camera (live-action camera cam_y05) at the bottom of the live-action cameras cam_y01 to cam_y05 arranged in the direction perpendicular to the ground is 2 .44 m, the height of the virtual viewpoint position A is 3.5 m from the ground, and the imaging range of the live-action camera cam_y05 when reaching the other goal line beyond the virtual viewpoint position A is 4.8 m Yes, the imaging range of all the live-action cameras cam_y01 to cam_y05 is a maximum of 21.72m.

また、仮想視点位置Aを地面からどのくらいの高さに指定するかは、具体的な撮像対象により異なり、また、撮像する場所によっても異なる。本願発明に係る撮像装置1は、撮像対象及び撮像場所に応じて、自由な位置を仮想視点位置Aに設定することができる。   Also, the height at which the virtual viewpoint position A is designated from the ground differs depending on the specific imaging target and also differs depending on the location where the imaging is performed. The imaging apparatus 1 according to the present invention can set a free position as the virtual viewpoint position A according to the imaging target and the imaging location.

なお、仮想視点画像生成部28は、仮想視点画像の各画素のRGB濃淡値を求めるために、仮想視点画像の各画素の位置と仮想カメラcvの光学中心を結ぶすべての光線に対して、実写カメラcam_1〜cam_kが配置されている位置を算出し、それらの位置にある実写カメラcam_1〜cam_kの配置の仮想視点画像を生成しても良い。このような構成にすることにより、撮像装置1は、実写カメラcam_1〜cam_kの平面上の仮想カメラcvにより撮像された場合の仮想視点画像を生成するために、その回りの少なくとも2台以上の実写カメラの撮像画像を用いる画像内挿(View Interpolation)、又は、その仮想カメラcvの光学中心に近い実写カメラの画像を用いることによっても実現できる。   Note that the virtual viewpoint image generation unit 28 performs actual shooting for all rays connecting the position of each pixel of the virtual viewpoint image and the optical center of the virtual camera cv in order to obtain the RGB gray value of each pixel of the virtual viewpoint image. The positions where the cameras cam_1 to cam_k are arranged may be calculated, and the virtual viewpoint images of the arrangement of the live-action cameras cam_1 to cam_k at those positions may be generated. With such a configuration, the imaging apparatus 1 generates at least two or more live-action images around it in order to generate a virtual viewpoint image when captured by the virtual camera cv on the plane of the live-action cameras cam_1 to cam_k. It can also be realized by using image interpolation (View Interpolation) using a captured image of the camera, or using an image of a real camera close to the optical center of the virtual camera cv.

したがって、本願発明に係る撮像装置1は、撮像対象を撮像する実写カメラが少なくとも2台以上配設されており、仮想視点位置Aと、撮像対象と、解像度と、撮影画角を設定し、設定した仮想視点位置Aに基づき各実写カメラcam_1〜cam_kの位置、水平方向及び垂直方向並びに実写カメラcam_1〜cam_kどうしの間隔及び撮影画角を調整し、所定のタイミングで撮像対象を各実写カメラcam_1〜cam_kにより撮像し、撮像された各画像を用いて画像内挿(View Interpolation)により仮想視点画像を生成するので、従来のように3Dモデルを生成して仮想視点画像を生成する必要がなく、かつ、各実写カメラcam_1〜cam_kで撮影された画像を用いて、仮想視点位置Aでの画像を光線補間によって生成するので、実写カメラcam_1〜cam_kの視野角及び画像解像度に比べて、より広角で高解像度の仮想視点映像を生成することが可能となる。また、本願発明に係る撮像装置1により生成された仮想視点画像は、視聴者にあたかもサッカーコートの中央付近位置で試合を鑑賞しているような臨場感を与えることが可能となる。   Therefore, in the imaging apparatus 1 according to the present invention, at least two or more live-action cameras for imaging the imaging target are arranged, and the virtual viewpoint position A, the imaging target, the resolution, and the shooting angle of view are set and set. Based on the virtual viewpoint position A, the positions of the live-action cameras cam_1-cam_k, the horizontal and vertical directions, the intervals between the live-action cameras cam_1-cam_k, and the shooting angle of view are adjusted, and the real-time cameras cam_1- Since a virtual viewpoint image is generated by image interpolation (View Interpolation) using each captured image, and there is no need to generate a virtual viewpoint image by generating a 3D model as in the past, and The image at the virtual viewpoint position A is generated by ray interpolation using the images photographed by each of the live-action cameras cam_1 to cam_k. , As compared to the viewing angle and the image resolution of the live-action camera Cam_1~cam_k, it is possible to generate a high-resolution virtual viewpoint image in wider angle. Further, the virtual viewpoint image generated by the imaging device 1 according to the present invention can give the viewer a sense of realism as if watching a game at a position near the center of the soccer court.

さらに、本願発明に係る撮像装置1は、例えば、サッカーコートの中心付近位置で複数の仮想視点画像を生成し、生成した仮想視点画像を立体ディスプレイに出力するような構成にすることにより、真に迫った臨場感のあるスポーツ試合の鑑賞を可能とする。   Furthermore, the imaging device 1 according to the present invention is truly configured by generating a plurality of virtual viewpoint images near the center of the soccer court and outputting the generated virtual viewpoint images to a stereoscopic display, for example. Appreciate sports games with a sense of realism.

本発明に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on this invention. 撮像装置により仮想視点画像を生成する際の概念を説明する図である。It is a figure explaining the concept at the time of producing | generating a virtual viewpoint image with an imaging device. 仮想視点位置に仮想的に生成される仮想カメラの視野角と実写カメラの視野角の関係を示す図である。It is a figure which shows the relationship between the viewing angle of the virtual camera produced | generated virtually at a virtual viewpoint position, and the viewing angle of a real-shot camera. 仮想視点位置から所定の視野角で撮像対象を撮像する場合の仮想カメラと、実写カメラの位置、視野角及び撮像方向について説明する図である。It is a figure explaining the virtual camera in the case of imaging an imaging target with a predetermined viewing angle from a virtual viewpoint position, and the position, viewing angle, and imaging direction of a live-action camera. 仮想視点位置から所定の視野角で、所定の距離に或る撮像対象を撮像する場合の仮想カメラと、実写カメラの位置、視野角及び撮像方向について説明する図である。It is a figure explaining the position of a virtual camera in the case of imaging a certain imaging target at a predetermined distance at a predetermined viewing angle from a virtual viewpoint position, a viewing angle, and an imaging direction. 実写カメラよりも広い視野角を有し、高解像度の画像を得る仮想カメラの生成について説明する図である。It is a figure explaining the production | generation of the virtual camera which has a viewing angle wider than a real-shot camera, and obtains a high-resolution image. 本発明に係る撮像装置により仮想視点画像を生成するまでの手順を示すフローチャートである。It is a flowchart which shows the procedure until a virtual viewpoint image is produced | generated by the imaging device which concerns on this invention. 図7に示すフローチャートの続きである。It is a continuation of the flowchart shown in FIG. 本発明に係る撮像装置に備えられている実写カメラが水平方向に配置された例を示す図である。It is a figure which shows the example by which the real camera provided with the imaging device which concerns on this invention was arrange | positioned in the horizontal direction. 本発明に係る撮像装置に備えられている実写カメラが垂直方向に配置された例を示す図である。It is a figure which shows the example by which the real camera provided with the imaging device which concerns on this invention was arrange | positioned at the perpendicular direction.

符号の説明Explanation of symbols

1 撮像装置、10 撮像部、11 処理部、12 出力部、20 カメラ部、21 同期信号生成部、22 指定部、23 設定部、24 駆動部、25 キャリブレーション部、26 画像対応付け部、27 推定部、28 仮想視点画像生成部、29 選択部   DESCRIPTION OF SYMBOLS 1 Imaging device, 10 Imaging part, 11 Processing part, 12 Output part, 20 Camera part, 21 Synchronization signal generation part, 22 Specification part, 23 Setting part, 24 Driving part, 25 Calibration part, 26 Image matching part, 27 Estimator, 28 Virtual viewpoint image generator, 29 Selector

Claims (12)

撮像対象を撮像するカメラが複数台配されてなる撮像装置において、
上記撮像対象の動きに応じて上記複数のカメラごとに撮像方向及び撮影画角を制御する制御手段と、
上記制御手段により制御された上記複数のカメラにより撮像された画像に基づき、画像間の対応点を求める画像間対応付け手段と、
上記画像間対応付け手段により求めた対応点に基づき、仮想視点画像を生成する仮想視点画像生成手段とを備えることを特徴とする撮像装置。
In an imaging apparatus in which a plurality of cameras for imaging an imaging target are arranged,
Control means for controlling the imaging direction and the shooting angle of view for each of the plurality of cameras according to the movement of the imaging target;
An image-to-image association unit for obtaining corresponding points between images based on images taken by the plurality of cameras controlled by the control unit;
An imaging apparatus comprising: a virtual viewpoint image generation unit configured to generate a virtual viewpoint image based on the corresponding points obtained by the inter-image association unit.
上記複数のカメラの間隔を調整する間隔調整手段を備えることを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, further comprising interval adjusting means for adjusting intervals between the plurality of cameras. 上記複数のカメラにより仮想的に作り出される仮想視点位置及び当該仮想視点位置における解像度を指定する指定手段を備え、
上記制御手段は、上記指定手段により指定された仮想視点位置及び当該仮想視点位置における解像度に基づき、上記複数のカメラの撮像方向及び撮影画角を制御することを特徴とする請求項1記載の撮像装置。
A virtual viewpoint position virtually created by the plurality of cameras, and a designation means for designating a resolution at the virtual viewpoint position,
2. The imaging according to claim 1, wherein the control unit controls an imaging direction and an imaging angle of view of the plurality of cameras based on a virtual viewpoint position designated by the designation unit and a resolution at the virtual viewpoint position. apparatus.
上記複数のカメラにより仮想的に作り出される仮想視点位置における撮影方向を指定する指定手段を備え、
上記制御手段は、上記指定手段により指定された仮想視点位置における撮影方向に基づき、上記複数のカメラの撮影方向及び撮影画角を制御することを特徴とする請求項1記載の撮像装置。
Comprising designation means for designating a shooting direction at a virtual viewpoint position virtually created by the plurality of cameras;
The imaging apparatus according to claim 1, wherein the control unit controls a shooting direction and a shooting field angle of the plurality of cameras based on a shooting direction at the virtual viewpoint position specified by the specifying unit.
上記複数のカメラの幾何学的な位置関係に基づき、上記複数のカメラにより撮像されたそれぞれの画像を補正する画像補正手段を備えることを特徴とする請求項1記載の撮像装置。   The image pickup apparatus according to claim 1, further comprising an image correction unit that corrects each image picked up by the plurality of cameras based on a geometric positional relationship between the plurality of cameras. 上記仮想視点画像生成手段は、画像対応付け手段により求めた画像間の対応点に基づき、仮想的に作り出される仮想視点位置での光線情報を推定し、推定した当該光線情報を用いて仮想視点画像を生成することを特徴とする請求項1記載の撮像装置。   The virtual viewpoint image generation means estimates light ray information at a virtual viewpoint position that is virtually created based on corresponding points between images obtained by the image association means, and uses the estimated light ray information to generate a virtual viewpoint image. The imaging apparatus according to claim 1, wherein: 上記仮想視点画像生成手段により生成された仮想視点画像又は、上記カメラにより撮像された画像を選択する選択手段と、
上記選択手段により選択された画像をディスプレイに出力する出力手段とを備えることを特徴とする請求項1記載の撮像装置。
Selection means for selecting a virtual viewpoint image generated by the virtual viewpoint image generation means or an image captured by the camera;
The image pickup apparatus according to claim 1, further comprising: an output unit that outputs an image selected by the selection unit to a display.
上記選択手段で選択された画像をディスプレイに所定のパターンで表示するように編集する編集手段を備え、
上記編集手段で編集後の画像を上記出力手段によりディスプレイに出力することを特徴とする請求項7記載の撮像装置。
Editing means for editing the image selected by the selection means so as to be displayed in a predetermined pattern on the display;
8. The imaging apparatus according to claim 7, wherein the image edited by the editing unit is output to a display by the output unit.
同期信号を生成する同期信号生成手段を備え、
上記同期信号生成手段は、生成した同期信号を上記複数のカメラに出力し、撮像対象を撮像するタイミングの同期をとることを特徴とする請求項1記載の撮像装置。
Synchronization signal generating means for generating a synchronization signal;
The imaging apparatus according to claim 1, wherein the synchronization signal generation unit outputs the generated synchronization signal to the plurality of cameras to synchronize timing for imaging an imaging target.
上記複数のカメラで撮像した画像を記録媒体に記録する記録手段を備えることを特徴とする請求項1記載の撮像装置。   2. The imaging apparatus according to claim 1, further comprising recording means for recording images captured by the plurality of cameras on a recording medium. 上記仮想視点画像生成手段で生成された画像をネットワークを介して外部機器に送信する送信手段を備えることを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a transmission unit configured to transmit an image generated by the virtual viewpoint image generation unit to an external device via a network. 複数の撮像部により撮像対象を撮像する撮像方法において、
上記撮像対象の動きに応じて上記複数の撮像部ごとの撮像方向及び撮影画角を制御し、
制御された上記複数の撮像部により撮像された画像に基づき、画像間の対応点を求め、
上記求めた対応点に基づき、仮想視点画像を生成することを特徴とする撮像方法。
In an imaging method for imaging an imaging target by a plurality of imaging units,
Control the imaging direction and the field angle of view for each of the plurality of imaging units according to the movement of the imaging target,
Based on the images captured by the plurality of controlled image capturing units, a corresponding point between the images is obtained,
An imaging method characterized by generating a virtual viewpoint image based on the obtained corresponding points.
JP2003309261A 2003-09-01 2003-09-01 Imaging apparatus and method Expired - Fee Related JP4903358B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003309261A JP4903358B2 (en) 2003-09-01 2003-09-01 Imaging apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003309261A JP4903358B2 (en) 2003-09-01 2003-09-01 Imaging apparatus and method

Publications (2)

Publication Number Publication Date
JP2005080015A true JP2005080015A (en) 2005-03-24
JP4903358B2 JP4903358B2 (en) 2012-03-28

Family

ID=34411478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003309261A Expired - Fee Related JP4903358B2 (en) 2003-09-01 2003-09-01 Imaging apparatus and method

Country Status (1)

Country Link
JP (1) JP4903358B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352539A (en) * 2005-06-16 2006-12-28 Sharp Corp Wide-field video system
JP2009519539A (en) * 2005-12-14 2009-05-14 プレイデータ システムズ インコーポレイテッド Method and system for creating event data and making it serviceable
JP2009527150A (en) * 2006-02-13 2009-07-23 ソニー株式会社 Multi-lens array system and method
KR101479901B1 (en) 2014-06-11 2015-01-08 주식회사 리버스톤미디어 Method and apparatus for controlling of virtual camera
KR101515404B1 (en) * 2014-06-11 2015-05-04 주식회사 리버스톤미디어 Method and apparatus for controlling of virtual camera
JP2017211828A (en) * 2016-05-25 2017-11-30 キヤノン株式会社 Image processing system, image processor, control method, and program
JP2019012533A (en) * 2018-08-08 2019-01-24 キヤノン株式会社 Information processing apparatus, information processing method, and program
WO2022024593A1 (en) * 2020-07-31 2022-02-03 富士フイルム株式会社 Information processing device, information processing method, program, and information processing system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352539A (en) * 2005-06-16 2006-12-28 Sharp Corp Wide-field video system
JP2009519539A (en) * 2005-12-14 2009-05-14 プレイデータ システムズ インコーポレイテッド Method and system for creating event data and making it serviceable
JP2009527150A (en) * 2006-02-13 2009-07-23 ソニー株式会社 Multi-lens array system and method
US8369399B2 (en) 2006-02-13 2013-02-05 Sony Corporation System and method to combine multiple video streams
US9182228B2 (en) 2006-02-13 2015-11-10 Sony Corporation Multi-lens array system and method
KR101479901B1 (en) 2014-06-11 2015-01-08 주식회사 리버스톤미디어 Method and apparatus for controlling of virtual camera
KR101515404B1 (en) * 2014-06-11 2015-05-04 주식회사 리버스톤미디어 Method and apparatus for controlling of virtual camera
JP2017211828A (en) * 2016-05-25 2017-11-30 キヤノン株式会社 Image processing system, image processor, control method, and program
US10848748B2 (en) 2016-05-25 2020-11-24 Canon Kabushiki Kaisha Method for generating virtual viewpoint image and image processing apparatus
JP2019012533A (en) * 2018-08-08 2019-01-24 キヤノン株式会社 Information processing apparatus, information processing method, and program
WO2022024593A1 (en) * 2020-07-31 2022-02-03 富士フイルム株式会社 Information processing device, information processing method, program, and information processing system

Also Published As

Publication number Publication date
JP4903358B2 (en) 2012-03-28

Similar Documents

Publication Publication Date Title
US9288474B2 (en) Image device and image processing method for generating control information indicating the degree of stereoscopic property or whether or not 3D image needs to be outputted
US8970675B2 (en) Image capture device, player, system, and image processing method
US10911694B2 (en) System and method for creating metadata model to improve multi-camera production
EP3127321B1 (en) Method and system for automatic television production
US10652519B2 (en) Virtual insertions in 3D video
US9042709B2 (en) Image capture device, player, and image processing method
US9264695B2 (en) System and method for multi-viewpoint video capture
US20120013711A1 (en) Method and system for creating three-dimensional viewable video from a single video stream
US20130141525A1 (en) Image processing system and method
US20130141521A1 (en) Image processing system and method
KR101538947B1 (en) The apparatus and method of hemispheric freeviewpoint image service technology
WO1995007590A1 (en) Time-varying image processor and display device
US11017587B2 (en) Image generation method and image generation device
GB2517730A (en) A method and system for producing a video production
US20220150422A1 (en) Multi-camera virtual studio production process
Sabirin et al. Toward real-time delivery of immersive sports content
JP4903358B2 (en) Imaging apparatus and method
Ikeya et al. Multi-viewpoint robotic cameras and their applications
US9258546B2 (en) Three-dimensional imaging system and image reproducing method thereof
JP3388827B2 (en) Moving image processing device
JP6392739B2 (en) Image processing apparatus, image processing method, and image processing program
JPH1042307A (en) Key system and synthetic image forming method
JP6450306B2 (en) Image processing apparatus, image processing method, and image processing program
JP2005101797A (en) Stereoscopic display system
JP2020178235A (en) Video effect device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120105

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees