JP2020140519A - Image generation device and control method thereof - Google Patents

Image generation device and control method thereof Download PDF

Info

Publication number
JP2020140519A
JP2020140519A JP2019036395A JP2019036395A JP2020140519A JP 2020140519 A JP2020140519 A JP 2020140519A JP 2019036395 A JP2019036395 A JP 2019036395A JP 2019036395 A JP2019036395 A JP 2019036395A JP 2020140519 A JP2020140519 A JP 2020140519A
Authority
JP
Japan
Prior art keywords
image
virtual
virtual viewpoint
camera
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019036395A
Other languages
Japanese (ja)
Inventor
隆 川井
Takashi Kawai
川井  隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019036395A priority Critical patent/JP2020140519A/en
Publication of JP2020140519A publication Critical patent/JP2020140519A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

To be able to generate a virtual viewpoint image with improved position accuracy of back ground and foreground.SOLUTION: An image generation device generating a virtual viewpoint image from a multi-view image shot by a plurality of cameras comprises: a setting unit setting a virtual model representing a virtual straight line or virtual plane including a position of a specified camera among the plurality of cameras and a back ground model representing three-dimensional shape of the back ground in a three-dimensional space; and a generation unit generating a virtual viewpoint image from a specified virtual viewpoint by using the multi-view image and the back ground model. The generation unit uses, for generation of the virtual viewpoint image, the shot image by the specified camera in preference to the shot image by other cameras as closer the specified virtual viewpoint is to the virtual model.SELECTED DRAWING: Figure 1

Description

本発明は、複数のカメラにより撮影された多視点画像から仮想視点画像を生成する画像生成装置及びその制御方法に関する。 The present invention relates to an image generation device that generates a virtual viewpoint image from a multi-viewpoint image taken by a plurality of cameras and a control method thereof.

複数のカメラを異なる位置に設置して多視点位置から撮影し、当該撮影により得られた多視点画像を用いて、任意に指定された視点位置からの仮想視点画像を生成する技術が知られている。この技術によれば、様々な視点の位置、角度から得られる画像を視聴することが出来る。そのため、例えばサッカーやバスケットボールなどのハイライトシーンについて、通常の画像と比較して視聴者に高臨場感を与えることが出来る画像を提供することができる。 A technique is known in which a plurality of cameras are installed at different positions to shoot from a multi-viewpoint position, and a virtual viewpoint image is generated from an arbitrarily specified viewpoint position using the multi-viewpoint image obtained by the shooting. There is. According to this technology, images obtained from various viewpoint positions and angles can be viewed. Therefore, for highlight scenes such as soccer and basketball, it is possible to provide an image that can give a high sense of presence to the viewer as compared with a normal image.

特許文献1では、スタジアムを複数のカメラで同期撮影して得られた多視点画像から仮想視点画像を生成する技術が開示されている。特許文献1によれば、多視点画像から前景テクスチャ画像、背景テクスチャ画像、三次元モデルなどを生成し、任意に指定された視点からの三次元モデルに適切な前景テクスチャ、背景テクスチャをマッピングして重畳合成することで仮想視点画像を生成する。 Patent Document 1 discloses a technique for generating a virtual viewpoint image from a multi-viewpoint image obtained by synchronously photographing a stadium with a plurality of cameras. According to Patent Document 1, a foreground texture image, a background texture image, a three-dimensional model, etc. are generated from a multi-viewpoint image, and an appropriate foreground texture and background texture are mapped to the three-dimensional model from an arbitrarily specified viewpoint. A virtual viewpoint image is generated by superimposing and synthesizing.

特開2017−211828号公報Japanese Unexamined Patent Publication No. 2017-21128

しかしながら、従来の方法で生成された仮想視点画像において、前景と背景の位置関係の精度が低いことによる課題が生じる場合がある。例えば、スタジアムをあらかじめ計測し、三次元モデリングによって背景の三次元形状モデル(以下、背景モデル)を生成する場合に、計測誤差や三次元モデリング精度の低さなどにより背景モデルと現実のスタジアムの形状とに誤差が生じる可能性がある。結果、前景画像を背景画像中の正確な位置に重畳することが出来なくなる。競走や競泳などで複数の選手がほぼ同時にゴールインするようなフィニッシュシーンの仮想視点画像において、選手とフィニュッシュラインの位置関係にずれが発生すると、仮想視点画像をビデオ判定へ利用する場合に正確な判定が行えない。 However, in the virtual viewpoint image generated by the conventional method, there may be a problem due to the low accuracy of the positional relationship between the foreground and the background. For example, when the stadium is measured in advance and a 3D shape model of the background (hereinafter referred to as the background model) is generated by 3D modeling, the background model and the actual shape of the stadium due to measurement errors and low 3D modeling accuracy. And there may be an error. As a result, the foreground image cannot be superimposed on the exact position in the background image. In a virtual viewpoint image of a finish scene where multiple athletes finish in at almost the same time in a race or swimming, if there is a deviation in the positional relationship between the athlete and the finish line, an accurate judgment will be made when using the virtual viewpoint image for video judgment. Cannot be done.

本発明は、上記課題に鑑みてなされたものであり、背景と前景の位置精度を向上した仮想視点画像を生成することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to generate a virtual viewpoint image with improved position accuracy of the background and the foreground.

上記課題を解決するための本発明の一態様による画像生成装置は以下の構成を備える。すなわち、
複数のカメラにより撮影された多視点画像から仮想視点画像を生成する画像生成装置であって、
前記複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、背景の三次元形状を表す背景モデルとを、三次元空間に設定する設定手段と、
前記多視点画像と前記背景モデルを用いて、指定された仮想視点からの仮想視点画像を生成する生成手段と、を備え、
前記生成手段は、前記指定された仮想視点と前記仮想モデルとの距離が近いほど、前記特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して前記仮想視点画像の生成に利用する。
An image generator according to one aspect of the present invention for solving the above problems has the following configuration. That is,
An image generator that generates virtual viewpoint images from multi-viewpoint images taken by multiple cameras.
A setting means for setting a virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among the plurality of cameras and a background model representing a three-dimensional shape of the background in a three-dimensional space.
A generation means for generating a virtual viewpoint image from a specified virtual viewpoint by using the multi-viewpoint image and the background model is provided.
The generation means uses the image captured by the specific camera in preference to the image captured by the other camera to generate the virtual viewpoint image as the distance between the designated virtual viewpoint and the virtual model becomes closer. ..

本発明によれば、背景と前景の位置精度が向上した仮想視点画像を生成することが可能となる。 According to the present invention, it is possible to generate a virtual viewpoint image with improved position accuracy of the background and the foreground.

第一実施形態における仮想視点画像生成装置の構成例を示す図。The figure which shows the configuration example of the virtual viewpoint image generation apparatus in 1st Embodiment. 第一実施形態における短距離走フィニッシュ位置における仮想平面を表す図。The figure which shows the virtual plane at the sprint finish position in 1st Embodiment. 第一実施形態における仮想平面と仮想視点の視線を説明する図。The figure explaining the line-of-sight of a virtual plane and a virtual viewpoint in the 1st Embodiment. 第一実施形態における背景モデルの補正を説明するフローチャート。The flowchart explaining the correction of the background model in 1st Embodiment. 第一実施形態における仮想平面生成と背景モデル補正を説明する図。The figure explaining virtual plane generation and background model correction in 1st Embodiment. 仮想視点画像の生成処理を説明するフローチャート。A flowchart illustrating a process of generating a virtual viewpoint image. 仮想視点画像の表示例を表す図。The figure which shows the display example of a virtual viewpoint image. 第三実施形態における撮像システムと仮想視点を説明する図。The figure explaining the image pickup system and the virtual viewpoint in 3rd Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate description is omitted.

<第一実施形態>
図1は、第一実施形態における仮想視点画像生成装置100の全体構成を例示するブロック図である。
<First Embodiment>
FIG. 1 is a block diagram illustrating the overall configuration of the virtual viewpoint image generation device 100 according to the first embodiment.

図1において、撮像システム110は、仮想視点画像生成に必要な多視点画像を撮影するシステムであり、複数のカメラ(撮影装置)101a〜101zから構成される。カメラ101a〜101zは、例えばスタジアムなど競技場の競技フィールドを取り囲むように設置され、各々にIPアドレスが割り当てられている。画像処理部103は、カメラ101a〜101zのシャッタースピード、絞り値、焦点距離などの撮影条件、および、撮影開始/終了を制御し、同期撮影を行う。撮像システム110によって撮影された複数の撮影画像からなる多視点画像は通信回線102を介して画像処理部103の画像入力部104に入力される。画像入力部104は、明るさ補正、諧調補正、解像力補正等の各種補正処理を撮影画像に施した後、処理された撮影画像を分離部105へ出力する。 In FIG. 1, the imaging system 110 is a system that captures a multi-viewpoint image necessary for generating a virtual viewpoint image, and is composed of a plurality of cameras (shooting devices) 101a to 101z. The cameras 101a to 101z are installed so as to surround the competition field of the stadium such as a stadium, and an IP address is assigned to each of them. The image processing unit 103 controls shooting conditions such as the shutter speed, aperture value, and focal length of the cameras 101a to 101z, and shooting start / end, and performs synchronous shooting. A multi-viewpoint image composed of a plurality of captured images captured by the imaging system 110 is input to the image input unit 104 of the image processing unit 103 via the communication line 102. The image input unit 104 performs various correction processes such as brightness correction, gradation correction, and resolution correction on the captured image, and then outputs the processed captured image to the separation unit 105.

分離部105は、カメラ101a〜101zの撮影画像から、競技選手など主被写体である前景領域と、主被写体以外の背景領域とに分離し、前景テクスチャ生成部106、背景テクスチャ生成部107、および画像生成部108に出力する。分離部105が用いる前景背景分離方法には公知の技術を適用できる。例えば、競技開始前にあらかじめ競技場のみを撮影し、該撮影像を参照画像として記憶しておき、カメラ撮影画像と参照画像との画素毎の差分値があらかじめ決められた閾値以上のとき前景領域と判断する方法があげられる。或いは、同一カメラの異なる時間で撮影された複数画像の画素毎の差分値があらかじめ決められた閾値以上のとき前景領域と判断する方法があげられる。操作UI109は、仮想カメラ(仮想視点)の指定、仮想平面(後述する)の指定をユーザに行わせるためのインターフェースである。 The separation unit 105 separates the foreground region, which is the main subject such as an athlete, and the background area other than the main subject from the captured image of the cameras 101a to 101z, and separates the foreground texture generation unit 106, the background texture generation unit 107, and the image. Output to the generation unit 108. A known technique can be applied to the foreground background separation method used by the separation unit 105. For example, before the start of the competition, only the stadium is photographed in advance, the photographed image is stored as a reference image, and when the difference value for each pixel between the camera photographed image and the reference image is equal to or greater than a predetermined threshold value, the foreground area There is a way to judge that. Alternatively, there is a method of determining the foreground region when the difference value for each pixel of a plurality of images taken by the same camera at different times is equal to or greater than a predetermined threshold value. The operation UI 109 is an interface for allowing the user to specify a virtual camera (virtual viewpoint) and a virtual plane (described later).

前景テクスチャ生成部106および背景テクスチャ生成部107は、カメラ101a〜101zによる全ての撮影画像の前景テクスチャおよび背景テクスチャをカメラIDごとに分類し蓄積する。画像生成部108は、前景モデル、前景テクスチャ、背景モデル、背景テクスチャ、仮想視点、仮想平面、および仮想視線評価値に基づいて仮想視点画像を生成する。なお、前景モデルは、分離部105から入力される前景画像に基づいて画像生成部108が生成し保持する。また、背景モデルは、後述のようにあらかじめ計測データなどに基づいて生成されており、画像生成部108が保持している。 The foreground texture generation unit 106 and the background texture generation unit 107 classify and accumulate the foreground texture and the background texture of all the captured images by the cameras 101a to 101z for each camera ID. The image generation unit 108 generates a virtual viewpoint image based on the foreground model, the foreground texture, the background model, the background texture, the virtual viewpoint, the virtual plane, and the virtual line-of-sight evaluation value. The foreground model is generated and held by the image generation unit 108 based on the foreground image input from the separation unit 105. Further, the background model is generated in advance based on measurement data or the like as described later, and is held by the image generation unit 108.

主被写体である前景は、主被写体の全周からの画像が撮像システム110によって撮影される。そのため、前景の三次元形状モデル(前景モデル)はカメラベース(イメージベース)の手法によって生成される。一方、競技場や構造物などは視界にあるカメラ台数が少ないため、背景の三次元形状モデル(背景モデル)をカメラベースで生成することが難しい。よって、あらかじめ競技場や構造物の形状を、図示しないレーザースキャナーなどで計測した計測データから、三次元モデリングソフトウェアなどで三次元形状モデルデータを作成し、背景モデルとして画像生成部108に保存しておく。背景モデルでは、計測誤差やモデリングにおける近似誤差によって実際の背景形状との間に誤差が発生する。この誤差により、背景モデルとカメラベースの前景モデルとを重畳合成した場合に、位置ずれが発生する。本実施形態では、後述の仮想平面生成部112によって生成される仮想平面を利用して、上記誤差を解消するための補正が行われる。 As for the foreground, which is the main subject, an image from the entire circumference of the main subject is taken by the imaging system 110. Therefore, the three-dimensional shape model (foreground model) of the foreground is generated by the camera-based (image-based) method. On the other hand, since the number of cameras in the field of view is small in stadiums and structures, it is difficult to generate a three-dimensional background model (background model) based on the camera. Therefore, the shape of the stadium or the structure is measured in advance with a laser scanner or the like (not shown), and the three-dimensional shape model data is created by the three-dimensional modeling software or the like and saved in the image generation unit 108 as a background model. deep. In the background model, an error occurs between the background shape and the actual background shape due to measurement error and approximation error in modeling. Due to this error, misalignment occurs when the background model and the camera-based foreground model are superimposed and combined. In the present embodiment, the correction for eliminating the above error is performed by using the virtual plane generated by the virtual plane generation unit 112 described later.

次に、画像生成部108は、操作UI109によって指定された仮想カメラの情報(仮想視点の位置、方向)に基づき、前景テクスチャおよび背景テクスチャを前景モデルと背景モデルにマッピングし、仮想視点画像を生成する。背景テクスチャ及び前景テクスチャとしてどのカメラの撮影画像を用いるかは、後述の視線判定部114の出力値に応じて決定される。画像生成部108は、生成した仮想視点画像をディスプレイ111に表示する。 Next, the image generation unit 108 maps the foreground texture and the background texture to the foreground model and the background model based on the information of the virtual camera (position and direction of the virtual viewpoint) specified by the operation UI 109, and generates a virtual viewpoint image. To do. Which camera's captured image is used as the background texture and the foreground texture is determined according to the output value of the line-of-sight determination unit 114 described later. The image generation unit 108 displays the generated virtual viewpoint image on the display 111.

次に、仮想平面生成部112よって生成される仮想平面について説明する。仮想平面生成部112は、複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、仮想視点画像の生成に用いる背景モデルとを、同一の三次元仮想空間に設定する設定部として機能する構成の一例である。以下では、仮想モデルとして、仮想視点の視線方向と平行な仮想平面を設定する構成について説明する。本実施形態の仮想平面は、競技場内の特徴的な領域を含む平面であり、仮想視点画像上に重畳表示され、背景画像と前景画像の位置誤差補正に利用される。また仮想平面は、例えば、図2に示すように、短距離走の順位判定のための補助的な表示として利用され得る。 Next, the virtual plane generated by the virtual plane generation unit 112 will be described. The virtual plane generation unit 112 puts a virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among a plurality of cameras and a background model used for generating a virtual viewpoint image into the same three-dimensional virtual space. This is an example of a configuration that functions as a setting unit for setting. In the following, a configuration for setting a virtual plane parallel to the line-of-sight direction of the virtual viewpoint will be described as a virtual model. The virtual plane of the present embodiment is a plane including a characteristic area in the stadium, is superimposed and displayed on the virtual viewpoint image, and is used for correcting the position error between the background image and the foreground image. Further, the virtual plane can be used as an auxiliary display for determining the ranking of sprinting, for example, as shown in FIG.

図2は、第一実施形態による仮想視点画像生成装置100を短距離走フィニッシュ時の仮想視点画像の生成に適用した例を示す図である。競技用のトラック205上に引かれたフィニッシュライン204を含み、トラック205の面(平面)に直交する平面が仮想平面201として設定されている。複数台数のカメラを有する撮像システム110は、トラック205上に引かれたフィニッシュライン204を通過する選手202、203を撮影し多視点画像を得る。画像処理部103は、取得した多視点画像から仮想視点画像を生成し、ディスプレイ111に表示する。 FIG. 2 is a diagram showing an example in which the virtual viewpoint image generation device 100 according to the first embodiment is applied to generate a virtual viewpoint image at the time of a sprint finish. A plane orthogonal to the plane (plane) of the track 205, including the finish line 204 drawn on the track 205 for competition, is set as the virtual plane 201. The imaging system 110 having a plurality of cameras photographs the athletes 202 and 203 passing through the finish line 204 drawn on the track 205 to obtain a multi-viewpoint image. The image processing unit 103 generates a virtual viewpoint image from the acquired multi-view image and displays it on the display 111.

選手202および選手203を含むフィニッシュライン204の近傍を撮像システム110で撮影された多視点画像から生成する場合を想定する。この場合、分離部105は、選手202および選手203の領域を前景画像、その他の領域を背景画像として分離する。また、背景モデルは、あらかじめトラック205を含むスタジアム形状を計測し、三次元モデリングによって生成された三次元形状モデルである。画像生成部108は、背景モデルの表面に背景テクスチャをマッピングして仮想視点から観察される背景画像を生成し、前景モデルの表面に前景テクスチャをマッピングして仮想視点から観察される前景画像を生成する。画像生成部108は、生成された背景画像と前景画像とを重畳合成して仮想視点画像を生成する。 It is assumed that the vicinity of the finish line 204 including the athlete 202 and the athlete 203 is generated from the multi-viewpoint image taken by the imaging system 110. In this case, the separation unit 105 separates the regions of the athlete 202 and the athlete 203 as the foreground image and the other regions as the background image. The background model is a three-dimensional shape model generated by three-dimensional modeling by measuring the shape of the stadium including the track 205 in advance. The image generation unit 108 maps the background texture to the surface of the background model to generate the background image observed from the virtual viewpoint, and maps the foreground texture to the surface of the foreground model to generate the foreground image observed from the virtual viewpoint. To do. The image generation unit 108 generates a virtual viewpoint image by superimposing and synthesizing the generated background image and the foreground image.

視聴者(ユーザ)は、フィニッシュライン204の近傍の仮想視点からの仮想視点画像を観察することで、各選手の順位を容易に判定することが可能となる。しかしながら、フィニッシュライン204を含む背景画像と前景画像の位置関係に誤差があると、正確な順位を判定することができない。本実施形態では、そのような背景画像と前景画像の位置関係の誤差を解消する。以下、背景画像と前景画像の位置の誤差を解消する構成について説明する。 The viewer (user) can easily determine the ranking of each player by observing the virtual viewpoint image from the virtual viewpoint in the vicinity of the finish line 204. However, if there is an error in the positional relationship between the background image including the finish line 204 and the foreground image, an accurate ranking cannot be determined. In the present embodiment, such an error in the positional relationship between the background image and the foreground image is eliminated. Hereinafter, a configuration for eliminating the error between the positions of the background image and the foreground image will be described.

図3は、第一実施形態による撮像システム110を陸上競技に適用した例を示す図である。図4は、第一実施形態による背景モデルの調整処理を説明するフローチャートである。図3に示されるように、カメラ101a〜101fは撮影対象領域であるフィニッシュライン204を取り囲むようにほぼ均等間隔に配置されている。これら複数のカメラのうちカメラ101aとカメラ101dはフィニッシュライン204の両延長線上部に配置され、その視線方向はフィニッシュライン204に向いている(S401)。カメラ101aとカメラ101dは、その視線方向が、フィニッシュライン204を含み地面に直交する仮想平面201に含まれているカメラであり、以下、特定のカメラとも称する。なお、図4の例では特定のカメラが2台であるが、これに限られるものではなく、特定カメラの台数は1台でもよいし、3台以上であってもよい。なお、本実施形態では特定のカメラがフィニッシュライン204に向いており、特定のカメラの視線方向と仮想平面201とが平行であるものとするが、これに限定されない。例えば、特定のカメラの位置が仮想平面201に含まれており、且つ、そのカメラの撮影範囲に仮想平面が含まれていれば、仮想平面が撮影範囲の中心に位置しなくてもよい。 FIG. 3 is a diagram showing an example in which the imaging system 110 according to the first embodiment is applied to athletics. FIG. 4 is a flowchart illustrating the background model adjustment process according to the first embodiment. As shown in FIG. 3, the cameras 101a to 101f are arranged at substantially equal intervals so as to surround the finish line 204, which is a photographing target area. Of these plurality of cameras, the camera 101a and the camera 101d are arranged above both extension lines of the finish line 204, and their line-of-sight directions are directed to the finish line 204 (S401). The camera 101a and the camera 101d are cameras whose line-of-sight directions include the finish line 204 and are included in the virtual plane 201 orthogonal to the ground, and are also referred to as specific cameras below. In the example of FIG. 4, the number of specific cameras is two, but the number is not limited to this, and the number of specific cameras may be one or three or more. In the present embodiment, it is assumed that the specific camera faces the finish line 204 and the line-of-sight direction of the specific camera is parallel to the virtual plane 201, but the present invention is not limited to this. For example, if the position of a specific camera is included in the virtual plane 201 and the shooting range of the camera includes the virtual plane, the virtual plane does not have to be located at the center of the shooting range.

図5は、カメラ101aまたはカメラ101dによる撮影画像の例を示す図である(以下、カメラ101dの撮影画像として説明する)。短距離走のような競技の場合、図5(a)のようにフィニッシュラインの延長線上からの撮影画像を用いるとフィニッシュ順位を判定し易い。そのため、本実施形態では、撮像システム110を構成する複数のカメラのうち、少なくとも1台のカメラをフィニッシュラインの延長線上に配置している。但し、配置位置はスポーツ競技の種類によって異なるため、競技種に合わせて最適な配置場所が設定される。 FIG. 5 is a diagram showing an example of an image captured by the camera 101a or the camera 101d (hereinafter, will be described as an image captured by the camera 101d). In the case of a competition such as sprinting, it is easy to determine the finish ranking by using an image taken from an extension of the finish line as shown in FIG. 5A. Therefore, in the present embodiment, at least one of the plurality of cameras constituting the imaging system 110 is arranged on an extension line of the finish line. However, since the placement position differs depending on the type of sports competition, the optimum placement location is set according to the type of competition.

カメラ配置後、ユーザは、操作UI109を用いて、フィニッシュライン204を見易い位置に仮想視点を指定し、仮想視点画像の生成を指示する。画像処理部103は、撮像システム110によって撮影した多視点画像を用いて、指定された仮想視点からの仮想視点画像を生成し、ディスプレイ111に表示する(S402)。なお、S402で指定される仮想視点は、背景モデルに基づいてあらかじめ設定されていてもよいし、背景モデルに基づいて自動的に設定されてもよい。 After arranging the cameras, the user uses the operation UI 109 to specify the virtual viewpoint at a position where the finish line 204 can be easily seen, and instructs the generation of the virtual viewpoint image. The image processing unit 103 generates a virtual viewpoint image from a designated virtual viewpoint using the multi-view image captured by the imaging system 110, and displays it on the display 111 (S402). The virtual viewpoint specified in S402 may be preset based on the background model, or may be automatically set based on the background model.

仮想平面生成部112は、ディスプレイ111に表示された仮想視点画像において、操作UI109によってフィニッシュライン204上の2点をユーザに指定させる(S403)。仮想平面生成部112は、表示画面上で指定された2点を、背景モデルにおけるトラック205を含む面に対して指定された点として扱い、指定された2点を両端とする線分ABを決定する。そして、仮想平面生成部112は、線分ABを含み、トラック205の面(例えば地面)と直交する平面を、図3に示した座標XYZ軸に基づいて、平面方程式ax+by+cz+d=0として算出する(S404)。仮想平面生成部112は、算出した平面方程式を仮想モデルとして仮想平面記憶部113に記憶する。仮想平面記憶部113に記憶された仮想平面は、画像生成部108に送られる。 The virtual plane generation unit 112 causes the user to specify two points on the finish line 204 by the operation UI 109 in the virtual viewpoint image displayed on the display 111 (S403). The virtual plane generator 112 treats the two points specified on the display screen as points specified for the surface including the track 205 in the background model, and determines the line segment AB having the specified two points as both ends. To do. Then, the virtual plane generation unit 112 calculates a plane including the line segment AB and orthogonal to the plane (for example, the ground) of the track 205 as the plane equation ax + by + cz + d = 0 based on the coordinate XYZ axes shown in FIG. S404). The virtual plane generation unit 112 stores the calculated plane equation as a virtual model in the virtual plane storage unit 113. The virtual plane stored in the virtual plane storage unit 113 is sent to the image generation unit 108.

画像生成部108は、特定のカメラ(カメラ101d)による撮影画像に、特定のカメラと一致する仮想視点から観察される仮想モデルを描画する描画部の一例である。例えば、画像生成部108は、平面方程式で表される仮想平面を背景モデルの構成物の一部とし、仮想視点の位置を特定のカメラ101dの位置に設定して、当該仮想視点からの仮想平面201の画像を生成する。そして、画像生成部108は、カメラ101dの撮影画像に前述の仮想平面201の画像を重畳してディスプレイ111に表示する(S405)。図5(b)は、カメラ101dの撮影画像に仮想平面201を重畳したディスプレイ111の表示画像である。図5(b)では、背景モデルの誤差によって、カメラ101dの撮影画像に映されたフィニッシュライン204と仮想平面201にずれが生じている。 The image generation unit 108 is an example of a drawing unit that draws a virtual model observed from a virtual viewpoint matching the specific camera on an image captured by the specific camera (camera 101d). For example, the image generation unit 108 sets the virtual plane represented by the plane equation as a part of the constituent of the background model, sets the position of the virtual viewpoint to the position of the specific camera 101d, and sets the virtual plane from the virtual viewpoint. Generates 201 images. Then, the image generation unit 108 superimposes the image of the virtual plane 201 on the captured image of the camera 101d and displays it on the display 111 (S405). FIG. 5B is a display image of the display 111 in which the virtual plane 201 is superimposed on the captured image of the camera 101d. In FIG. 5B, due to an error in the background model, the finish line 204 and the virtual plane 201 projected on the captured image of the camera 101d are misaligned.

ユーザは、ディスプレイ111に表示されているカメラ101dによる撮影画像と仮想平面201との位置を確認し、それぞれが一致するまで背景モデルを修正(調整)する(S406、S407)。例えば、ユーザは、背景モデルを移動/回転することで、背景モデルと撮影画像を整合させる。こうして、画像生成部108は、特定カメラの撮影画像と描画された仮想モデルとが整合するように三次元モデルを調整する調整部の一例である。図5(c)は、背景モデルの修正(調整)が完了し、カメラ101dの撮影画像と仮想平面201とが整合した状態(仮想平面201が直線として観察されるとともに、当該直線がフィニッシュライン204と一致した状態)を示す。以上のような背景モデルの調整により、カメラ101dによる撮影画像と背景モデルの位置、方向が高精度に一致する。 The user confirms the positions of the image captured by the camera 101d displayed on the display 111 and the virtual plane 201, and corrects (adjusts) the background model until they match (S406, S407). For example, the user moves / rotates the background model to match the background model with the captured image. In this way, the image generation unit 108 is an example of an adjustment unit that adjusts the three-dimensional model so that the captured image of the specific camera and the drawn virtual model match. FIG. 5C shows a state in which the background model has been modified (adjusted) and the captured image of the camera 101d and the virtual plane 201 are aligned (the virtual plane 201 is observed as a straight line, and the straight line is the finish line 204. The state that matches with) is shown. By adjusting the background model as described above, the position and direction of the image captured by the camera 101d and the background model match with high accuracy.

その後、画像生成部108は、上記複数のカメラにより撮影された多視点画像と上記のごとく調整された背景モデルを用いて、指定された仮想視点に対応する仮想視点画像を生成する生成部の一例である。以上のように、特定のカメラからの撮影画像と背景モデルを仮想モデルの画像を用いて整合させることで、仮想モデルの近傍における仮想視点画像の背景画像と前景画像の間の位置関係の精度が向上する。よって、例えばフィニッシュライン204を含む仮想平面を仮想モデルとして設定することで、フィニッシュライン204付近を観察する仮想視点画像において、フィニッシュライン204と選手との位置関係をより高精度に再現することができる。 After that, the image generation unit 108 is an example of a generation unit that generates a virtual viewpoint image corresponding to the designated virtual viewpoint by using the multi-viewpoint image taken by the plurality of cameras and the background model adjusted as described above. Is. As described above, by matching the image taken from a specific camera and the background model using the image of the virtual model, the accuracy of the positional relationship between the background image and the foreground image of the virtual viewpoint image in the vicinity of the virtual model can be improved. improves. Therefore, for example, by setting a virtual plane including the finish line 204 as a virtual model, the positional relationship between the finish line 204 and the athlete can be reproduced with higher accuracy in the virtual viewpoint image for observing the vicinity of the finish line 204. ..

なお、背景モデルと特定のカメラ101dとの関係が高精度に調整されるので、仮想視点画像の生成においては、特定のカメラによる撮影画像(テクスチャ)を他のカメラによる撮影画像よりも優先して利用することが好ましい。例えば、仮想視点が仮想平面に近いほど特定のカメラによる撮影画像を優先して用いて仮想視点画像を生成するようにすれば、注目する領域を観察する仮想視点画像における前景画像と背景画像の位置関係をより高精度に再現できる。以下、このような制御の具体例について説明する。本実施形態では、画像生成部108は、仮想視点画像の生成のために指定された仮想視点と仮想モデルとの位置および方向の近さを評価する。そして、画像生成部108は、評価された近さが所定のレベル以上の場合に、特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して用いて仮想視点画像を生成する。 Since the relationship between the background model and the specific camera 101d is adjusted with high accuracy, the image (texture) taken by the specific camera is prioritized over the image taken by the other cameras in the generation of the virtual viewpoint image. It is preferable to use it. For example, if the closer the virtual viewpoint is to the virtual plane, the image taken by a specific camera is preferentially used to generate the virtual viewpoint image, the positions of the foreground image and the background image in the virtual viewpoint image for observing the region of interest. The relationship can be reproduced with higher accuracy. A specific example of such control will be described below. In the present embodiment, the image generation unit 108 evaluates the proximity of the position and direction between the virtual viewpoint and the virtual model designated for generating the virtual viewpoint image. Then, when the evaluated proximity is equal to or higher than a predetermined level, the image generation unit 108 generates a virtual viewpoint image by using the image captured by a specific camera in preference to the image captured by another camera.

図6(a)は、第一実施形態による仮想視点画像の生成処理を説明するフローチャートである。まず、視線判定部114は、操作UI109を介して入力される仮想視点のユーザ指定を受け付ける(S601)。次に、視線判定部114は、指定された仮想視点と仮想平面の近さを評価し、評価値pを取得する(S602)。例えば、視線判定部114は、仮想視点と仮想平面との距離、および仮想視点の視線方向と仮想平面(法線)とのなす角度をもとに評価値を算出する。以下に視線判定部114による評価値pの算出の一実施形態を説明する。 FIG. 6A is a flowchart illustrating a process of generating a virtual viewpoint image according to the first embodiment. First, the line-of-sight determination unit 114 accepts the user designation of the virtual viewpoint input via the operation UI 109 (S601). Next, the line-of-sight determination unit 114 evaluates the proximity of the designated virtual viewpoint and the virtual plane, and acquires the evaluation value p (S602). For example, the line-of-sight determination unit 114 calculates an evaluation value based on the distance between the virtual viewpoint and the virtual plane and the angle between the line-of-sight direction of the virtual viewpoint and the virtual plane (normal line). An embodiment of calculation of the evaluation value p by the line-of-sight determination unit 114 will be described below.

XYZを三次元座標軸、abcを平面の方向ベクトルとすると、平面方程式はax+by+cz+d=0である。視線判定部114は、仮想視点と仮想平面との距離、および仮想視点視線方向と仮想平面とのなす角を基準に評価値を算出する。 Assuming that XYZ is a three-dimensional coordinate axis and abc is a plane direction vector, the plane equation is ax + by + cz + d = 0. The line-of-sight determination unit 114 calculates an evaluation value based on the distance between the virtual viewpoint and the virtual plane and the angle formed by the virtual viewpoint line-of-sight direction and the virtual plane.

図3には、仮想平面201と、仮想平面201の近傍に指定された仮想カメラ(仮想視点301)の位置と視線方向(光軸方向)が示されている。図3に示されるように、仮想視点301の位置を(x,y,z)、仮想視点301の視線方向の方向ベクトルを(l,m,n)とすると、仮想視点301から仮想平面201までの距離hは[数1]のように表される。 FIG. 3 shows the position and the line-of-sight direction (optical axis direction) of the virtual plane 201 and the virtual camera (virtual viewpoint 301) designated in the vicinity of the virtual plane 201. As shown in FIG. 3, assuming that the position of the virtual viewpoint 301 is (x 1 , y 1 , z 1 ) and the direction vector of the virtual viewpoint 301 in the line-of-sight direction is (l, m, n), the virtual viewpoint 301 is virtual. The distance h to the plane 201 is expressed as [Equation 1].

Figure 2020140519
Figure 2020140519

また、仮想視点301の視線方向と仮想平面201のなす角度θは[数2]のように表される。 Further, the angle θ formed by the line-of-sight direction of the virtual viewpoint 301 and the virtual plane 201 is expressed as in [Equation 2].

Figure 2020140519
Figure 2020140519

視線判定部114は、仮想カメラから平面までの距離hと仮想カメラ視線方向と平面のなす角θの関数p=f(h,θ)として評価値を求める。評価値pの一実施形態として距離hとなす角θに感度係数αおよびβをそれぞれ乗算し、それらの和p=αh+βθを評価値とする。仮想視点視線が仮想平面に沿うほど評価値pは小さくなり、p=0のとき、仮想視点の視線は仮想平面に完全に含まれる。 The line-of-sight determination unit 114 obtains an evaluation value as a function p = f (h, θ) of the distance h from the virtual camera to the plane and the angle θ formed by the line-of-sight direction of the virtual camera and the plane. As an embodiment of the evaluation value p, the angle θ formed by the distance h is multiplied by the sensitivity coefficients α and β, respectively, and the sum of them p = αh + βθ is used as the evaluation value. The evaluation value p becomes smaller as the line of sight of the virtual viewpoint is along the virtual plane, and when p = 0, the line of sight of the virtual viewpoint is completely included in the virtual plane.

視線判定部114は、以上のように算出した評価値pを画像生成部108に送る。画像生成部108は、仮想平面と仮想視点との位置及び方向の関係に基づく評価値pがεより小さい場合(p<ε)、特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して用いて仮想視点画像を生成する(S603,S604)。すなわち、画像生成部108は、カメラ101dによって撮影された背景テクスチャと前景テクスチャを、他のカメラに優先して仮想視点画像のテクスチャマッピングの参照元として利用する。こうして、仮想視点が仮想平面201に近い場合に、上記のように調整された背景モデルにカメラ101dによって撮影されたテクスチャがマッピングされる。他方、p≧εの場合は、画像生成部108は、特定のカメラからの撮影画像を優先することなく、多視点画像を用いて仮想視点画像を生成する(S603、S605)。 The line-of-sight determination unit 114 sends the evaluation value p calculated as described above to the image generation unit 108. When the evaluation value p based on the relationship between the position and direction of the virtual plane and the virtual viewpoint is smaller than ε (p <ε), the image generation unit 108 gives priority to the image captured by a specific camera over the image captured by another camera. To generate a virtual viewpoint image (S603, S604). That is, the image generation unit 108 uses the background texture and the foreground texture captured by the camera 101d as a reference source for texture mapping of the virtual viewpoint image in preference to other cameras. In this way, when the virtual viewpoint is close to the virtual plane 201, the texture captured by the camera 101d is mapped to the background model adjusted as described above. On the other hand, when p ≧ ε, the image generation unit 108 generates a virtual viewpoint image using the multi-viewpoint image without giving priority to the image taken from the specific camera (S603, S605).

図7(a)、図7(b)は、選手のフィニッシュ時の仮想視点画像をディスプレイ111に表示した図である。図7(a)は仮想カメラが仮想平面から離れた位置(p≧ε)にある時の仮想視点画像である。図7(a)のように、ディスプレイ111に仮想平面201を重畳して表示することで、選手とフィニッシュラインとの位置関係がより解り易くなる。図7(b)は、仮想視点を仮想平面201上に配置して得られた仮想視点画像、すなわち評価値p=0での仮想視点画像である。 7 (a) and 7 (b) are views showing a virtual viewpoint image at the finish of the athlete on the display 111. FIG. 7A is a virtual viewpoint image when the virtual camera is at a position (p ≧ ε) away from the virtual plane. By superimposing the virtual plane 201 on the display 111 as shown in FIG. 7A, the positional relationship between the player and the finish line becomes easier to understand. FIG. 7B is a virtual viewpoint image obtained by arranging the virtual viewpoint on the virtual plane 201, that is, a virtual viewpoint image at an evaluation value p = 0.

以上のように、仮想視点301と仮想平面201に関して評価された近さが所定のレベル以上の場合(本例では、p<εの場合)に、画像生成部108は、背景モデルと前景モデルに張り付けるテクスチャを可能な限りカメラ101dの撮影画像から取得する。背景モデルのうちカメラ101dの撮影画像に含まれない部分のテクスチャについては、他のカメラの撮影画像から取得される。例えば、図7(b)の仮想視点画像には背景テクスチャと前景テクスチャとしてカメラ101dの撮影画像が優先的に用いられる。図4に示した処理により、カメラ101dの撮影画像と背景モデルは高精度に位置合わせされているので、仮想視点画像において背景画像と前景画像の位置関係が正確に再現される。 As described above, when the closeness evaluated with respect to the virtual viewpoint 301 and the virtual plane 201 is equal to or higher than a predetermined level (in this example, p <ε), the image generation unit 108 uses the background model and the foreground model. The texture to be pasted is acquired from the captured image of the camera 101d as much as possible. The texture of the portion of the background model that is not included in the captured image of the camera 101d is acquired from the captured image of another camera. For example, in the virtual viewpoint image of FIG. 7B, the captured image of the camera 101d is preferentially used as the background texture and the foreground texture. Since the captured image of the camera 101d and the background model are aligned with high accuracy by the process shown in FIG. 4, the positional relationship between the background image and the foreground image is accurately reproduced in the virtual viewpoint image.

以上のように、第一実施形態によれば、図7(b)で示すように、背景画像と前景画像の位置誤差が補正され、仮想視点画像における背景画像と前景画像の位置ずれが解消される。そのため、例えば、仮想平面をフィニッシュライン上に重畳表示することで短距離走フィニッシュ時の順位判定の補助として利用可能となる。また、第一実施形態によれば、仮想視点画像の視野内に設定された仮想平面に仮想視点視線が近いほど、背景画像と前景画像の配置精度が向上する。 As described above, according to the first embodiment, as shown in FIG. 7B, the positional error between the background image and the foreground image is corrected, and the positional deviation between the background image and the foreground image in the virtual viewpoint image is eliminated. To. Therefore, for example, by superimposing and displaying the virtual plane on the finish line, it can be used as an aid for ranking determination at the time of sprinting finish. Further, according to the first embodiment, the closer the virtual viewpoint line of sight is to the virtual plane set in the field of view of the virtual viewpoint image, the higher the placement accuracy of the background image and the foreground image is.

なお、仮想平面201に視線方向が含まれるカメラが複数台ある場合は、さらに、仮想視点の視線方向/位置と、カメラの視線方向/位置との関係を考慮して、どちらのカメラによる撮影画像を用いるかを決定するようにしてもよい。すなわち、仮想視点とカメラの距離、仮想視点とカメラの視線方向の内積に基づいて近さを評価し、この評価結果に基づいてどちらのカメラの撮影画像を優先して用いるかを決定するようにしてもよい。例えば、図3で説明したように、カメラ101aとカメラ101dの視線が仮想平面201に含まれる場合、上述した評価結果に基づいて優先して用いるカメラが決定される。 If there are a plurality of cameras whose line-of-sight direction is included in the virtual plane 201, the image taken by which camera is further considered in consideration of the relationship between the line-of-sight direction / position of the virtual viewpoint and the line-of-sight direction / position of the camera. May be decided whether to use. That is, the proximity is evaluated based on the distance between the virtual viewpoint and the camera, and the inner product of the virtual viewpoint and the line-of-sight direction of the camera, and based on this evaluation result, which camera's captured image is preferentially used is determined. You may. For example, as described with reference to FIG. 3, when the lines of sight of the camera 101a and the camera 101d are included in the virtual plane 201, the camera to be used preferentially is determined based on the above-mentioned evaluation result.

<第二実施形態>
以下、第二実施形態による仮想視点画像生成装置について説明する。第二実施形態の仮想視点画像生成装置100では、仮想視点と仮想平面の近さが所定のレベル以上の場合(p<ε)に、仮想視点画像から特定のカメラによる撮影画像に切り替える。なお、仮想視点画像生成装置100の構成は、第一実施形態(図1、図2)と同様である。但し、視線判定部114の判定結果が分離部105にも入力される。
<Second embodiment>
Hereinafter, the virtual viewpoint image generator according to the second embodiment will be described. In the virtual viewpoint image generation device 100 of the second embodiment, when the proximity between the virtual viewpoint and the virtual plane is equal to or higher than a predetermined level (p <ε), the virtual viewpoint image is switched to the image captured by a specific camera. The configuration of the virtual viewpoint image generation device 100 is the same as that of the first embodiment (FIGS. 1 and 2). However, the determination result of the line-of-sight determination unit 114 is also input to the separation unit 105.

第二実施形態における仮想平面の生成、仮想平面情報の記憶は第一実施形態と同様である。視線判定部114は第一実施形態と同様に評価値pを計算する。仮想カメラ視線が仮想平面内に含まれているかどうかを判断するために評価値pとの比較に用いられる閾値εは、あらかじめ設定されているものとする。図6(b)は、第二実施形態による仮想視点画像の生成処理を説明するフローチャートである。以下、図6(b)のフローチャートを参照して、第二実施形態による画像生成部108の動作を説明する。 The generation of the virtual plane and the storage of the virtual plane information in the second embodiment are the same as those in the first embodiment. The line-of-sight determination unit 114 calculates the evaluation value p in the same manner as in the first embodiment. It is assumed that the threshold value ε used for comparison with the evaluation value p for determining whether or not the line of sight of the virtual camera is included in the virtual plane is set in advance. FIG. 6B is a flowchart illustrating a process of generating a virtual viewpoint image according to the second embodiment. Hereinafter, the operation of the image generation unit 108 according to the second embodiment will be described with reference to the flowchart of FIG. 6B.

仮想視点の指定を受け付けて、仮想視点と仮想平面の近さを評価する評価値pを取得する処理は、第1実施形態(図6(a)のS601〜S602)と同様である。操作UI109の操作によって指定された仮想視点301と仮想平面201の近さが所定レベル以上の場合(p<εの場合)、画像生成部108は、特定のカメラによる撮影画像を仮想視点画像に替えてディスプレイ111に表示する(S613、S614)。他方、仮想視点301と仮想平面201の近さが所定レベル以上でない場合(p≧ε)、画像生成部108は、多視点画像を用いて指定された仮想視点からの仮想視点画像を生成する(S613、S615)。 The process of accepting the designation of the virtual viewpoint and acquiring the evaluation value p for evaluating the proximity of the virtual viewpoint and the virtual plane is the same as that of the first embodiment (S601 to S602 of FIG. 6A). When the proximity of the virtual viewpoint 301 and the virtual plane 201 specified by the operation of the operation UI 109 is equal to or higher than a predetermined level (when p <ε), the image generation unit 108 replaces the image captured by the specific camera with the virtual viewpoint image. Is displayed on the display 111 (S613, S614). On the other hand, when the proximity of the virtual viewpoint 301 and the virtual plane 201 is not equal to or higher than a predetermined level (p ≧ ε), the image generation unit 108 generates a virtual viewpoint image from a virtual viewpoint designated by using the multi-view image (). S613, S615).

S614による画像表示処理の一例についてより具体的に説明する。仮想視点301と仮想平面201の近さが所定レベル以上の場合(p<εの場合)、視線判定部114は、評価値pを0として画像生成部108と分離部105に出力する。分離部105は、視線判定部114からp=0を受信した場合、特定のカメラ(カメラ101d)による撮影画像の全体を前景画像として前景テクスチャ生成部106に送信する。また、画像生成部108は、視線判定部114からp=0を受信した場合、特定のカメラによる撮影画像の全体である前景画像を前景テクスチャ生成部106から取得し、そのままディスプレイ111に表示する。この動作により、ディスプレイ111における表示は、多視点画像から生成される仮想視点画像から特定のカメラにより撮影された撮影画像に切り替わる。 An example of the image display processing by S614 will be described more specifically. When the proximity of the virtual viewpoint 301 and the virtual plane 201 is equal to or higher than a predetermined level (when p <ε), the line-of-sight determination unit 114 outputs the evaluation value p to 0 to the image generation unit 108 and the separation unit 105. When p = 0 is received from the line-of-sight determination unit 114, the separation unit 105 transmits the entire image captured by the specific camera (camera 101d) to the foreground texture generation unit 106 as a foreground image. Further, when p = 0 is received from the line-of-sight determination unit 114, the image generation unit 108 acquires the foreground image, which is the entire image taken by the specific camera, from the foreground texture generation unit 106 and displays it on the display 111 as it is. By this operation, the display on the display 111 is switched from the virtual viewpoint image generated from the multi-viewpoint image to the captured image taken by a specific camera.

図7(a)〜(c)は、選手のフィニッシュ時の仮想視点画像をディスプレイ111に表示した状態の例を示す図である。第一実施形態でも説明したように、図7(a)は仮想カメラが仮想平面から離れた位置(p≧ε)にある場合の仮想視点画像である。図7(a)のように、ディスプレイ111に仮想平面201を重畳して表示することで、選手とフィニッシュラインとの位置関係がより解り易くなる。図7(b)は、仮想視点をフィニッシュライン延長線上に配置(p=0)して得られた、フィニッシュ時の仮想視点画像をディスプレイ111に表示した状態を示す図である。図7(b)は第一実施形態の図1の画像処理ブロックにより生成された画像であり、上述したように、三次元背景モデルに仮想平面が重畳され、順位判定の補助となる。 7 (a) to 7 (c) are diagrams showing an example of a state in which a virtual viewpoint image at the finish of a player is displayed on the display 111. As described in the first embodiment, FIG. 7A is a virtual viewpoint image when the virtual camera is located at a position (p ≧ ε) away from the virtual plane. By superimposing the virtual plane 201 on the display 111 as shown in FIG. 7A, the positional relationship between the player and the finish line becomes easier to understand. FIG. 7B is a diagram showing a state in which the virtual viewpoint image at the time of finishing is displayed on the display 111, which is obtained by arranging the virtual viewpoint on the extension line of the finish line (p = 0). FIG. 7B is an image generated by the image processing block of FIG. 1 of the first embodiment, and as described above, a virtual plane is superimposed on the three-dimensional background model to assist the ranking determination.

図7(c)は、本実施形態の画像生成部108が、仮想平面内に配置されたカメラ(例えば図4のカメラ101d)による撮影画像をディスプレイ111に表示した状態を示す図である。図7(c)は第二実施形態のS614で生成された画像であり、フィニッシュライン延長線上に配置されたカメラ101dによる撮影画像そのものである。すなわち、フィニッシュラインと選手を分離して生成する仮想視点画像に替えて、撮影画像そのものが表示されている。なお、ディスプレイ111の画面にカメラ番号表示701を追加するようにしてもよい。カメラ番号表示701により、仮想視点画像生成装置100をカメラ判定(ビデオ判定)に利用する場合に、審判員にどのカメラの画像であるかを明示することができる。 FIG. 7C is a diagram showing a state in which the image generation unit 108 of the present embodiment displays an image captured by a camera arranged in a virtual plane (for example, the camera 101d of FIG. 4) on the display 111. FIG. 7C is an image generated in S614 of the second embodiment, which is the image itself taken by the camera 101d arranged on the extension line of the finish line. That is, the captured image itself is displayed instead of the virtual viewpoint image generated by separating the finish line and the player. The camera number display 701 may be added to the screen of the display 111. The camera number display 701 makes it possible to clearly indicate to the referee which camera the image is when the virtual viewpoint image generation device 100 is used for camera determination (video determination).

なお、仮想視点画像から特定カメラによる撮影画像への切り替えを行うか否かを判断するための評価値pは、上記に限られるものではない。例えば、特定のカメラの位置および/または視線方向と、仮想視点の位置および/または視線方向の差が所定範囲内であることを条件としてもよい。或いは、仮想視点の視線がフィニッシュラインの近傍の特定の範囲を向いていることを条件としてもよい。また、第1実施形態と第2実施形態の動作を組み合わせてもよい。例えば、2つの閾値ε1とε2(ε1>ε2)を設定し、ε1>p≧ε2の場合には特定カメラの撮影画像を優先して用いて仮想視点画像を生成し(第1実施形態のS604)、p<2の場合に特定カメラの撮影画像への切り替えを行うようにしてもよい。或いは、異なる条件で複数の評価値を算出し、それら評価値に基づいてS604の処理を実行するかS614の処理を実行するかを切り替えてもよい。 The evaluation value p for determining whether or not to switch from the virtual viewpoint image to the image captured by the specific camera is not limited to the above. For example, it may be a condition that the difference between the position and / or the line-of-sight direction of a specific camera and the position and / or the line-of-sight direction of the virtual viewpoint is within a predetermined range. Alternatively, it may be a condition that the line of sight of the virtual viewpoint points to a specific range in the vicinity of the finish line. Further, the operations of the first embodiment and the second embodiment may be combined. For example, two threshold values ε1 and ε2 (ε1> ε2) are set, and when ε1> p ≧ ε2, a virtual viewpoint image is generated by preferentially using the image captured by the specific camera (S604 of the first embodiment). ), P <2 may be used to switch to the captured image of the specific camera. Alternatively, a plurality of evaluation values may be calculated under different conditions, and it may be switched whether to execute the process of S604 or the process of S614 based on the evaluation values.

<第三実施形態>
第一実施形態、第二実施形態では、一つの仮想平面が三次元空間に設定される場合を説明した。しかしながら、仮想平面の数は一つに限られるものではない。第三実施形態では、一つの交線で交わる複数の仮想平面(二つの仮想平面)が設定される場合を説明する。
<Third Embodiment>
In the first embodiment and the second embodiment, the case where one virtual plane is set in the three-dimensional space has been described. However, the number of virtual planes is not limited to one. In the third embodiment, a case where a plurality of virtual planes (two virtual planes) intersecting at one line of intersection is set will be described.

図8はウィンタースポーツのカーリングに仮想視点画像生成装置100を適用した構成の例を示す図である。図8(a)は、カーリングの競技エリアの上部に撮像システム110(多視点カメラ)を配置した様子を表した図である。 FIG. 8 is a diagram showing an example of a configuration in which the virtual viewpoint image generation device 100 is applied to curling of winter sports. FIG. 8A is a diagram showing a state in which the imaging system 110 (multi-view camera) is arranged in the upper part of the curling competition area.

カーリングの競技エリアであるシート800の上部には、多視点画像を撮影するための複数のカメラとして5台のカメラ101a〜101eからなる撮像システム110が配置されている。5台中4台のカメラ101a〜101dは、ハウス803を中心にその近傍の多視点画像を生成するために、ハウス803の周辺を取り囲むように配置されている。また1台のカメラ101eをハウス803の中心の鉛直上部に配置してある。すなわち、カメラ101eは、その視線方向が仮想平面804と仮想平面805の交線に含まれる、特定のカメラとして用いられている。 An imaging system 110 composed of five cameras 101a to 101e is arranged above the seat 800, which is a curling competition area, as a plurality of cameras for capturing a multi-viewpoint image. Four of the five cameras 101a-101d are arranged so as to surround the periphery of the house 803 in order to generate a multi-viewpoint image in the vicinity of the house 803. Further, one camera 101e is arranged vertically above the center of the house 803. That is, the camera 101e is used as a specific camera whose line-of-sight direction is included in the line of intersection of the virtual plane 804 and the virtual plane 805.

図8(b)は仮想視点をハウス803中心の鉛直上部に指定したときの画像である。この視点位置からの画像は、視聴者による競技状況の把握や勝敗理解の助けになる。第三実施形態では2つの仮想平面を設定する。すなわち、センターライン801を含みシート800の面と直交する平面を第一の仮想平面804とし、ティーライン802を含みシート800の面と直交する平面を第二の仮想平面805とする。 FIG. 8B is an image when the virtual viewpoint is designated in the vertically upper part of the center of the house 803. The image from this viewpoint position helps the viewer to grasp the competition situation and understand the victory or defeat. In the third embodiment, two virtual planes are set. That is, the plane including the center line 801 and orthogonal to the plane of the sheet 800 is referred to as the first virtual plane 804, and the plane including the tee line 802 and orthogonal to the plane of the sheet 800 is referred to as the second virtual plane 805.

仮想平面生成部112は、センターライン801上における2つの指定位置から仮想平面804を、ティーライン802上の2つの指定位置から仮想平面805を仮想モデルとして生成し、それらの平面方程式を取得する。センターライン801、ティーライン802における位置の指定は、第一実施形態と同様に、仮想平面生成部112と接続された操作UI109を介して、ユーザにより行われる。仮想平面生成部112は、仮想平面804,805のそれぞれの平面方程式を画像生成部108に提供する。 The virtual plane generation unit 112 generates a virtual plane 804 from two designated positions on the center line 801 and a virtual plane 805 from two designated positions on the tee line 802 as a virtual model, and acquires the plane equations thereof. The position designation on the center line 801 and the tee line 802 is performed by the user via the operation UI 109 connected to the virtual plane generation unit 112, as in the first embodiment. The virtual plane generation unit 112 provides the image generation unit 108 with the plane equations of the virtual planes 804 and 805.

視線判定部114は、仮想視点と仮想平面との距離、および、仮想視点の方向と仮想平面の法線とのなす角度に関する評価値pを、仮想平面804と仮想平面805のそれぞれについて計算し、評価値p804、評価値p805を得る。そして、これら評価値を統合して新たな評価値を得る。例えば、それぞれの評価値の線形和p=γp804+ξp805を新たな評価値とする。第三実施形態においては、仮想視点位置および視線方向が仮想平面804と仮想平面805の交線806上にあるとき、最も視聴者の競技状況や勝敗理解の助けになり有効である。このとき、仮想視点は、仮想平面804及び仮想平面805の面上にあるため、評価値pは0となる。 The line-of-sight determination unit 114 calculates the evaluation value p regarding the distance between the virtual viewpoint and the virtual plane and the angle formed by the direction of the virtual viewpoint and the normal of the virtual plane for each of the virtual plane 804 and the virtual plane 805. An evaluation value p 804 and an evaluation value p 805 are obtained. Then, these evaluation values are integrated to obtain a new evaluation value. For example, the linear sum p = γp 804 + ξp 805 of each evaluation value is set as a new evaluation value. In the third embodiment, when the virtual viewpoint position and the line-of-sight direction are on the line of intersection 806 of the virtual plane 804 and the virtual plane 805, it is most effective for helping the viewer to understand the competition situation and the victory or defeat. At this time, since the virtual viewpoint is on the planes of the virtual plane 804 and the virtual plane 805, the evaluation value p is 0.

評価値p=γp804+ξp805は、視線判定部114から画像生成部108に送られる。以下、画像生成部108は、第一実施形態または第二実施形態と同様に、評価値pに基づいて仮想視点画像の生成処理を切り替えることができる。なお、評価値pとして2つの仮想平面との関係を評価したが、これに限られるものではない。例えば、2つの仮想平面の交線と仮想視点の関係(例えば、交線の方向ベクトルと支線の方向ベクトルの内積、交線と仮想視点との距離)を評価してもよい。 The evaluation value p = γp 804 + ξp 805 is sent from the line-of-sight determination unit 114 to the image generation unit 108. Hereinafter, the image generation unit 108 can switch the generation process of the virtual viewpoint image based on the evaluation value p, as in the first embodiment or the second embodiment. The relationship between the two virtual planes was evaluated as the evaluation value p, but the evaluation value is not limited to this. For example, the relationship between the line of intersection of two virtual planes and the virtual viewpoint (for example, the inner product of the direction vector of the line of intersection and the direction vector of the branch line, the distance between the line of intersection and the virtual viewpoint) may be evaluated.

以上、上記各実施形態では仮想モデルとして仮想平面を用いたが、仮想直線が用いられてもよい。例えば、ハウスの中心を指定することにより、シート面に垂直で、ハウスの中心をとおる仮想直線が設定される。この場合、仮想直線は、上記交線と一致する。評価値は、例えば、仮想直線と仮想視点との距離、仮想直線の方向と仮想視点の視線方向の差に基づいて算出することができる。 As described above, although the virtual plane is used as the virtual model in each of the above embodiments, a virtual straight line may be used. For example, by designating the center of the house, a virtual straight line perpendicular to the seat surface and passing through the center of the house is set. In this case, the virtual straight line coincides with the line of intersection. The evaluation value can be calculated based on, for example, the distance between the virtual straight line and the virtual viewpoint, and the difference between the direction of the virtual straight line and the line-of-sight direction of the virtual viewpoint.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

100:仮想視点画像生成装置、110:撮像システム、101a〜101z カメラ、102:通信回線、103:画像処理部、104:画像入力部、105:分離部、106:前景テクスチャ生成部、107:背景テクスチャ生成部、108:画像生成部、109:操作UI、111:ディスプレイ、112:仮想平面生成部、114:視線判定部 100: Virtual viewpoint image generator, 110: Imaging system, 101a-101z camera, 102: Communication line, 103: Image processing unit, 104: Image input unit, 105: Separation unit, 106: Foreground texture generation unit, 107: Background Texture generation unit, 108: Image generation unit, 109: Operation UI, 111: Display, 112: Virtual plane generation unit, 114: Line-of-sight determination unit

Claims (13)

複数のカメラにより撮影された多視点画像から仮想視点画像を生成する画像生成装置であって、
前記複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、背景の三次元形状を表す背景モデルとを、三次元空間に設定する設定手段と、
前記多視点画像と前記背景モデルを用いて、指定された仮想視点からの仮想視点画像を生成する生成手段と、を備え、
前記生成手段は、前記指定された仮想視点と前記仮想モデルとの距離が近いほど、前記特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して前記仮想視点画像の生成に利用することを特徴とする画像生成装置。
An image generator that generates virtual viewpoint images from multi-viewpoint images taken by multiple cameras.
A setting means for setting a virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among the plurality of cameras and a background model representing a three-dimensional shape of the background in a three-dimensional space.
A generation means for generating a virtual viewpoint image from a specified virtual viewpoint by using the multi-viewpoint image and the background model is provided.
The generation means uses the image captured by the specific camera in preference to the image captured by another camera to generate the virtual viewpoint image as the distance between the designated virtual viewpoint and the virtual model becomes closer. An image generator characterized by this.
複数のカメラにより撮影された多視点画像から仮想視点画像を生成する画像生成装置であって、
前記複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、前記仮想視点画像の生成に用いる背景の三次元形状を表す背景モデルとを、三次元空間に設定する設定手段と、
前記特定のカメラによる撮影画像に、前記特定のカメラと一致する仮想視点から観察される前記仮想モデルを描画する描画手段と、
前記撮影画像と描画された前記仮想モデルとが整合するように前記背景モデルを調整する調整手段と、
前記複数のカメラにより撮影された多視点画像と前記調整手段により調整された前記背景モデルを用いて仮想視点画像を生成する生成手段と、を備えることを特徴とする画像生成装置。
An image generator that generates virtual viewpoint images from multi-viewpoint images taken by multiple cameras.
A virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among the plurality of cameras and a background model representing a three-dimensional shape of the background used to generate the virtual viewpoint image are set in a three-dimensional space. Setting means to be
A drawing means for drawing the virtual model observed from a virtual viewpoint matching the specific camera on an image taken by the specific camera.
An adjustment means for adjusting the background model so that the captured image and the drawn virtual model match.
An image generation device comprising: a multi-viewpoint image taken by the plurality of cameras and a generation means for generating a virtual viewpoint image using the background model adjusted by the adjustment means.
前記生成手段は、前記特定のカメラによる撮影画像を、他のカメラによる撮影画像よりも優先して前記仮想視点画像の生成に利用することを特徴とする請求項2に記載の画像生成装置。 The image generation device according to claim 2, wherein the generation means uses the image captured by the specific camera in order to generate the virtual viewpoint image in preference to the image captured by another camera. 仮想視点画像の生成のために指定された仮想視点と前記仮想モデルとの位置および方向の近さを評価する評価手段をさらに備え、
前記生成手段は、前記評価手段により評価された前記近さが所定のレベル以上の場合に、前記特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して用いて仮想視点画像を生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像生成装置。
Further provided with an evaluation means for evaluating the closeness of the position and direction between the virtual viewpoint designated for generating the virtual viewpoint image and the virtual model.
The generation means generates a virtual viewpoint image by using the image captured by the specific camera in preference to the image captured by another camera when the proximity evaluated by the evaluation means is equal to or higher than a predetermined level. The image generator according to any one of claims 1 to 3, wherein the image generator is characterized by the above.
仮想視点画像の生成のために指定された仮想視点と前記仮想モデルとの位置および方向の近さを評価する評価手段と、
前記評価手段により評価された前記近さが所定のレベル以上の場合に、表示に用いる画像を、前記生成手段により生成される仮想視点画像から前記特定のカメラによる撮影画像に切り替える切り替え手段と、をさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載の画像生成装置。
An evaluation means for evaluating the closeness of the position and direction between the virtual viewpoint designated for generating the virtual viewpoint image and the virtual model, and
A switching means for switching the image used for display from the virtual viewpoint image generated by the generation means to the image captured by the specific camera when the proximity evaluated by the evaluation means is equal to or higher than a predetermined level. The image generator according to any one of claims 1 to 3, further comprising.
前記切り替え手段は、表示に用いる画像を前記特定のカメラによる撮影画像に切り替えた場合に、カメラによる実際の撮影画像であることを示す表示を追加することを特徴とする請求項5に記載の画像生成装置。 The image according to claim 5, wherein the switching means adds a display indicating that the image used for display is an image actually captured by the camera when the image used for display is switched to the image captured by the specific camera. Generator. 前記仮想モデルは一つの交線で交わる複数の仮想平面を含み、前記特定のカメラの視線方向は前記一つの交線に含まれることを特徴とする請求項1乃至3のいずれか1項に記載の画像生成装置。 The method according to any one of claims 1 to 3, wherein the virtual model includes a plurality of virtual planes intersecting at one line of intersection, and the line-of-sight direction of the specific camera is included in the one line of intersection. Image generator. 前記仮想モデルは一つの交線で交わる複数の仮想平面を含み、前記特定のカメラの視線方向は前記一つの交線に含まれており、
前記評価手段は、前記複数の仮想平面のそれぞれについて仮想視点画像の生成のために指定された仮想視点との近さの評価結果を統合して、前記仮想モデルと前記指定された仮想視点との近さを評価することを特徴とする請求項4乃至6のいずれか1項に記載の画像生成装置。
The virtual model includes a plurality of virtual planes intersecting at one line of intersection, and the line-of-sight direction of the specific camera is included in the one line of intersection.
The evaluation means integrates the evaluation results of the proximity to the virtual viewpoint designated for generating the virtual viewpoint image for each of the plurality of virtual planes, and the virtual model and the designated virtual viewpoint are combined. The image generator according to any one of claims 4 to 6, wherein the closeness is evaluated.
前記設定手段は、
前記複数のカメラによる多視点画像と前記背景モデルに基づいて生成された仮想視点画像を画面に表示させ、
前記画面において、表示されている仮想視点画像に対してユーザが指定した位置に基づいて仮想平面または仮想直線を決定することにより前記仮想モデルを設定することを特徴とする請求項1乃至8のいずれか1項に記載の画像生成装置。
The setting means is
A multi-viewpoint image from the plurality of cameras and a virtual viewpoint image generated based on the background model are displayed on the screen.
Any of claims 1 to 8 characterized in that the virtual model is set by determining a virtual plane or a virtual straight line based on a position designated by the user with respect to the displayed virtual viewpoint image on the screen. The image generator according to item 1.
前記仮想モデルは仮想平面であり、
前記評価手段は、前記仮想平面の位置および方向と、前記指定された仮想視点の位置および方向の近さを評価することを特徴とする請求項4、5、6、8のいずれか1項に記載の画像生成装置。
The virtual model is a virtual plane
The evaluation means according to any one of claims 4, 5, 6 and 8, characterized in that the position and direction of the virtual plane and the position and direction of the designated virtual viewpoint are evaluated. The image generator described.
複数のカメラにより撮影された多視点画像から仮想視点画像を生成する画像生成装置の制御方法であって、
前記複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、背景の三次元形状を表す背景モデルとを、三次元空間に設定する設定工程と、
前記多視点画像と前記背景モデルを用いて、指定された仮想視点からの仮想視点画像を生成する生成工程と、を備え、
前記生成工程では、前記指定された仮想視点と前記仮想モデルとの距離が近いほど、前記特定のカメラによる撮影画像を他のカメラによる撮影画像よりも優先して前記仮想視点画像の生成に利用することを特徴とする画像生成装置の制御方法。
It is a control method of an image generator that generates a virtual viewpoint image from a multi-view image taken by a plurality of cameras.
A setting step of setting a virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among the plurality of cameras and a background model representing a three-dimensional shape of the background in a three-dimensional space.
A generation step of generating a virtual viewpoint image from a designated virtual viewpoint by using the multi-viewpoint image and the background model is provided.
In the generation step, the closer the distance between the designated virtual viewpoint and the virtual model is, the more the image captured by the specific camera is used for generating the virtual viewpoint image in preference to the image captured by the other camera. A control method for an image generator, characterized in that.
複数のカメラにより撮影された多視点画像から仮想視点画像を生成する画像生成装置の制御方法であって、
前記複数のカメラのうちの特定のカメラの位置を含む仮想直線または仮想平面を表す仮想モデルと、前記仮想視点画像の生成に用いる背景の三次元形状を表す背景モデルとを、三次元空間に設定する設定工程と、
前記特定のカメラによる撮影画像に、前記特定のカメラと一致する仮想視点から観察される前記仮想モデルを描画する描画工程と、
前記撮影画像と描画された前記仮想モデルとが整合するように前記背景モデルを調整する調整工程と、
前記複数のカメラにより撮影された多視点画像と前記調整工程により調整された前記背景モデルを用いて仮想視点画像を生成する生成工程と、を備えることを特徴とする画像生成装置の制御方法。
It is a control method of an image generator that generates a virtual viewpoint image from a multi-view image taken by a plurality of cameras.
A virtual model representing a virtual straight line or a virtual plane including the position of a specific camera among the plurality of cameras and a background model representing a three-dimensional shape of the background used to generate the virtual viewpoint image are set in a three-dimensional space. Setting process to be done and
A drawing step of drawing the virtual model observed from a virtual viewpoint matching the specific camera on an image taken by the specific camera.
An adjustment step of adjusting the background model so that the captured image and the drawn virtual model match.
A control method of an image generation device, comprising: a multi-viewpoint image taken by the plurality of cameras and a generation step of generating a virtual viewpoint image using the background model adjusted by the adjustment step.
請求項11または12のいずれか1項に記載された制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to any one of claims 11 or 12.
JP2019036395A 2019-02-28 2019-02-28 Image generation device and control method thereof Pending JP2020140519A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019036395A JP2020140519A (en) 2019-02-28 2019-02-28 Image generation device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019036395A JP2020140519A (en) 2019-02-28 2019-02-28 Image generation device and control method thereof

Publications (1)

Publication Number Publication Date
JP2020140519A true JP2020140519A (en) 2020-09-03

Family

ID=72280419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019036395A Pending JP2020140519A (en) 2019-02-28 2019-02-28 Image generation device and control method thereof

Country Status (1)

Country Link
JP (1) JP2020140519A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7528140B2 (en) 2022-03-09 2024-08-05 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7528140B2 (en) 2022-03-09 2024-08-05 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
KR102013978B1 (en) Method and apparatus for fusion of images
US8654195B2 (en) Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus
TWI433530B (en) Camera system and image-shooting method with guide for taking stereo photo and method for automatically adjusting stereo photo
KR101804205B1 (en) Apparatus and method for image processing
JP5596972B2 (en) Control device and control method of imaging apparatus
WO2017183470A1 (en) Three-dimensional reconstruction method
JP2016018213A (en) Hmd calibration with direct geometric modeling
JP2010278878A (en) Stereoscopic image device and display image switching method thereof
WO2014023231A1 (en) Wide-view-field ultrahigh-resolution optical imaging system and method
US20110149031A1 (en) Stereoscopic image, multi-view image, and depth image acquisition apparatus and control method thereof
JP2007147457A (en) Three-dimensional shape calculation apparatus and method
JP7196421B2 (en) Information processing device, information processing system, information processing method and program
KR20150050172A (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
JP2015073185A (en) Image processing device, image processing method and program
JP2018500690A (en) Method and system for generating magnified 3D images
JPH05303629A (en) Method for synthesizing shape
CN107820071A (en) Mobile terminal and its stereoscopic imaging method, device and computer-readable recording medium
JP2000112019A (en) Electronic triplet lens camera apparatus
JP2020140519A (en) Image generation device and control method thereof
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JP2007033087A (en) Calibration device and method
JPH09305796A (en) Image information processor
JP2006017632A (en) Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method
JP5453552B2 (en) Imaging apparatus, method and program
JP2011146762A (en) Solid model generator

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113