JP2021179800A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2021179800A
JP2021179800A JP2020084709A JP2020084709A JP2021179800A JP 2021179800 A JP2021179800 A JP 2021179800A JP 2020084709 A JP2020084709 A JP 2020084709A JP 2020084709 A JP2020084709 A JP 2020084709A JP 2021179800 A JP2021179800 A JP 2021179800A
Authority
JP
Japan
Prior art keywords
image
photographing
virtual viewpoint
vehicle
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020084709A
Other languages
Japanese (ja)
Inventor
靖 四方
Yasushi Shikata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020084709A priority Critical patent/JP2021179800A/en
Publication of JP2021179800A publication Critical patent/JP2021179800A/en
Pending legal-status Critical Current

Links

Images

Abstract

To easily recognize relationship between viewpoints corresponding to a captured image and a virtual viewpoint image, respectively, in an image content including the captured image obtained by a moving imaging apparatus and the virtual viewpoint image.SOLUTION: A viewpoint operation UI 350 specifies a position of an in-vehicle imaging apparatus 200 moving in an imaging area in which images are captured by a plurality of imaging apparatuses 100 from different positions, by using data based on imaging by the imaging apparatuses 100. The viewpoint operation UI 350 determines a position of a virtual viewpoint corresponding to a virtual viewpoint image generated on the basis of the images obtained by the imaging apparatuses 100, in accordance with the specified position of the in-vehicle imaging apparatus 200.SELECTED DRAWING: Figure 1

Description

本発明は、撮影画像に基づいて生成される仮想視点画像に関する。 The present invention relates to a virtual viewpoint image generated based on a captured image.

複数の撮影装置を異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数の画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。例えば、サッカーやバスケットボールなどの競技を撮影した複数の画像に基づいて、ユーザにより指定された視点に応じた仮想視点画像を生成することにより、ユーザは様々な視点から競技を観戦することができる。 There is a technique in which a plurality of imaging devices are installed at different positions to perform synchronous imaging from multiple viewpoints, and a virtual viewpoint image in which the viewpoint can be arbitrarily changed is generated using the plurality of images obtained by the imaging. For example, by generating a virtual viewpoint image according to a viewpoint designated by the user based on a plurality of images of a competition such as soccer or basketball, the user can watch the competition from various viewpoints.

特許文献1には、サッカー等に使用されるフィールドを取り囲むように複数の撮影装置を配置し、複数の撮影装置で撮影した画像を用いて仮想視点画像を生成する技術が記載されている。 Patent Document 1 describes a technique in which a plurality of photographing devices are arranged so as to surround a field used for soccer or the like, and a virtual viewpoint image is generated using images photographed by the plurality of photographing devices.

特開2017−211828号公報Japanese Unexamined Patent Publication No. 2017-21128

仮想視点画像を生成する技術の適用先はサッカーやバスケットボールに限られず、例えばモータースポーツ等にこの技術を適用することもできる。一方、モータースポーツにおいては、臨場感のある画像を視聴者に提供するために車載カメラが使用されることがある。そこで、視聴者に新たな映像体験を提供するために、車載カメラの画像と仮想視点画像との両方を含む画像コンテンツを生成することが考えられる。しかしながら、仮想視点画像に対応する視点の決定方法によっては、画像コンテンツに含まれる車載カメラの画像と仮想視点画像のそれぞれに対応する視点の関係が視聴者にとって認識しづらく、混乱を生ずる虞がある。 The application destination of the technology for generating a virtual viewpoint image is not limited to soccer and basketball, and for example, this technology can be applied to motor sports and the like. On the other hand, in motor sports, an in-vehicle camera may be used to provide a viewer with a realistic image. Therefore, in order to provide the viewer with a new video experience, it is conceivable to generate image content including both the image of the in-vehicle camera and the virtual viewpoint image. However, depending on the method of determining the viewpoint corresponding to the virtual viewpoint image, it may be difficult for the viewer to recognize the relationship between the image of the in-vehicle camera included in the image content and the viewpoint corresponding to each of the virtual viewpoint images, which may cause confusion. ..

本発明は上記の課題に鑑みてなされたものであり、移動する撮影装置により取得された撮影画像と仮想視点画像とを含む画像コンテンツにおいて、当該撮影画像と仮想視点画像のそれぞれに対応する視点の関係を容易に認識できるようにすることを目的とする。 The present invention has been made in view of the above problems, and in the image content including the captured image and the virtual viewpoint image acquired by the moving photographing device, the viewpoint corresponding to each of the captured image and the virtual viewpoint image. The purpose is to make the relationship easily recognizable.

上記の課題を解決するため、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、生成対象の画像コンテンツに含まれる撮影画像を取得するための移動撮影装置であって、複数の撮影装置によりそれぞれ異なる位置から撮影される撮影領域内を移動する移動撮影装置の位置を、前記複数の撮影装置に含まれる撮影装置による撮影に基づくデータを用いて特定する特定手段と、前記画像コンテンツに含まれる仮想視点画像であって前記複数の撮影装置により取得された複数の画像に基づいて生成される仮想視点画像に対応する仮想視点の位置を、前記特定手段により特定された前記移動撮影装置の位置に応じた位置に決定する決定手段と、を有する。 In order to solve the above problems, the information processing apparatus according to the present invention has, for example, the following configuration. That is, the position of the mobile photographing device for acquiring the captured image included in the image content to be generated and moving within the photographing area photographed from different positions by a plurality of photographing devices is described above. Based on a specific means for specifying using data based on shooting by a shooting device included in a plurality of shooting devices, and a plurality of images acquired by the plurality of shooting devices, which are virtual viewpoint images included in the image content. It has a determination means for determining the position of the virtual viewpoint corresponding to the generated virtual viewpoint image to a position corresponding to the position of the mobile photographing apparatus specified by the specific means.

本発明によれば、移動する撮影装置により取得された撮影画像と仮想視点画像とを含む画像コンテンツにおいて、当該撮影画像と仮想視点画像のそれぞれに対応する視点の関係を容易に認識可能となる。 According to the present invention, it is possible to easily recognize the relationship between the viewpoints corresponding to each of the photographed image and the virtual viewpoint image in the image content including the photographed image and the virtual viewpoint image acquired by the moving photographing device.

画像処理システムの構成例を示す図である。It is a figure which shows the configuration example of an image processing system. 撮影領域の一例としてのレース場を示す図である。It is a figure which shows the race ground as an example of a shooting area. 撮影装置が設置された車両の一例を示す図である。It is a figure which shows an example of the vehicle which installed the photographing apparatus. 画像生成装置の機能構成例を示す図である。It is a figure which shows the functional configuration example of an image generator. 視点操作UIの機能構成例を示す図である。It is a figure which shows the functional structure example of the viewpoint operation UI. 装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of a device. 車両識別テーブルの例を示す図である。It is a figure which shows the example of the vehicle identification table. キャリブレーションテーブルの例を示す図である。It is a figure which shows the example of the calibration table. 車載撮影装置のキャリブレーション情報の取得に係る処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which concerns on the acquisition of the calibration information of an in-vehicle photographing apparatus. 仮想視点画像の生成及びキャリブレーション情報の変換に係る処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which concerns on the generation of a virtual viewpoint image, and the conversion of a calibration information. 撮影画像、前景画像、背景画像、及びマーカ検出結果の例を示す図である。It is a figure which shows the example of the photographed image, the foreground image, the background image, and a marker detection result. 撮影画像、前景画像、背景画像、及びマーカ検出結果の例を示す図である。It is a figure which shows the example of the photographed image, the foreground image, the background image, and a marker detection result. 撮影画像から検出されたマーカの3Dモデル上における位置を示すイメージ図である。It is an image diagram which shows the position on the 3D model of the marker detected from the photographed image. 複数の座標系の関係を示すイメージ図である。It is an image diagram which shows the relationship of a plurality of coordinate systems. 仮想視点の決定及び画像の切り替え指示に係る処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which concerns on the determination of a virtual viewpoint and the instruction of switching an image. 仮想視点の決定及び画像の切り替え指示に係る処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which concerns on the determination of a virtual viewpoint and the instruction of switching an image. 車載撮影装置と仮想視点との距離の時間変化の例を示す図である。It is a figure which shows the example of the time change of the distance between an in-vehicle photographing apparatus and a virtual viewpoint. トラッキング部の処理の詳細なフローを示すフローチャートである。It is a flowchart which shows the detailed flow of the processing of a tracking part. 変形例における処理フローを示すフローチャートである。It is a flowchart which shows the processing flow in the modification.

[システム構成]
図1は、画像処理システム1の構成例を示す図である。画像処理システム1は、撮影画像と仮想視点画像とが切り替えられて表示される画像コンテンツを視聴者に提供するシステムである。仮想視点画像とは、複数の撮影装置による撮影に基づく複数の画像と、指定された仮想視点とに基づいて生成される、指定された仮想視点からの見えを表す画像である。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
[System configuration]
FIG. 1 is a diagram showing a configuration example of the image processing system 1. The image processing system 1 is a system that provides a viewer with image content that is displayed by switching between a captured image and a virtual viewpoint image. The virtual viewpoint image is an image representing a view from a designated virtual viewpoint, which is generated based on a plurality of images taken by a plurality of photographing devices and a designated virtual viewpoint. The virtual viewpoint image in the present embodiment is also called a free viewpoint image, but is not limited to an image corresponding to a viewpoint freely (arbitrarily) specified by the user, for example, a viewpoint selected by the user from a plurality of candidates. Corresponding images and the like are also included in the virtual viewpoint image. Further, in the present embodiment, the case where the virtual viewpoint image is a moving image will be mainly described, but the virtual viewpoint image may be a still image.

画像処理システム1は、撮影システム110、車載撮影装置200、ハブ300、タイムサーバ310、制御装置320、制御UI330、画像生成装置340、視点操作UI350、および出力装置360を有する。撮影システム110は、撮影領域を複数の方向から撮影するための、撮影装置100−1から撮影装置100−12までの複数の撮影装置を有する。なお、本実施形態では撮影装置の数を12台としているが、撮影システム110が有する撮影装置の数はこれに限定されない。以下では、各撮影装置を特に区別しない場合には撮影装置100と表記する。 The image processing system 1 includes a photographing system 110, an in-vehicle photographing device 200, a hub 300, a time server 310, a control device 320, a control UI 330, an image generation device 340, a viewpoint operation UI 350, and an output device 360. The photographing system 110 includes a plurality of photographing devices from the photographing device 100-1 to the photographing device 100-12 for photographing the photographing area from a plurality of directions. In the present embodiment, the number of photographing devices is 12, but the number of photographing devices included in the photographing system 110 is not limited to this. In the following, when each photographing device is not particularly distinguished, it is referred to as a photographing device 100.

図2は、本実施形態において撮影システム110により撮影される撮影領域の一例であるモータースポーツのレース場130を示す。複数の撮影装置100が撮影領域を取り囲むようにそれぞれ異なる位置に設置され、同期して撮影を行う。なお、複数の撮影装置100は撮影領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮影領域の周囲の一部にのみ設置されていてもよいし、撮影領域の内部に設置されていてもよい。また、望遠カメラと広角カメラなど機能が異なる撮影装置が設置されていてもよい。 FIG. 2 shows a motor sports race field 130, which is an example of a photographing area photographed by the photographing system 110 in the present embodiment. A plurality of photographing devices 100 are installed at different positions so as to surround the photographing area, and image is taken in synchronization. The plurality of photographing devices 100 may not be installed over the entire circumference of the photographing area, and may be installed only in a part around the photographing area depending on the limitation of the installation place or the like, or may be installed inside the photographing area. It may be installed in. Further, a shooting device having different functions such as a telephoto camera and a wide-angle camera may be installed.

なお、本実施形態における複数の撮影装置100は、それぞれが独立した筐体を有し単一の視点で撮影可能なカメラであるものとする。ただしこれに限らず、2以上の撮影装置100が同一の筐体内に構成されていてもよい。例えば、複数のレンズ群と複数のセンサを備えており複数視点から撮影可能な単体のカメラが、複数の撮影装置100として設置されていてもよい。また、本実施形態では撮影領域がレース場130である場合について説明するが、これに限定されず、撮影領域は例えばサッカーや空手などの競技が行われる競技場、もしくはコンサートや演劇が行われる舞台などであってもよい。 It should be noted that the plurality of photographing devices 100 in the present embodiment are cameras having independent housings and capable of photographing from a single viewpoint. However, the present invention is not limited to this, and two or more photographing devices 100 may be configured in the same housing. For example, a single camera having a plurality of lens groups and a plurality of sensors and capable of photographing from a plurality of viewpoints may be installed as a plurality of photographing devices 100. Further, in the present embodiment, the case where the shooting area is the race field 130 will be described, but the shooting area is not limited to this, and the shooting area is, for example, a stadium where competitions such as soccer and karate are performed, or a stage where a concert or a play is performed. And so on.

画像生成装置340には、後述する仮想視点画像の生成処理のために、レース場130内の基準位置を原点とする座標系120における各撮影装置100の位置及び向き、並びに各撮影装置100の焦点距離を示すパラメータが記憶される。これらの撮影に係るパラメータを、以下では撮影システム110のキャリブレーション情報と表記する。なお、キャリブレーション情報には撮影に関わるその他のパラメータが含まれていてもよい。また、本実施形態では撮影システム110キャリブレーション情報が予め画像生成装置340に記憶されているものとするが、画像生成装置340は撮影システム110や制御装置320などの他の装置からキャリブレーション情報を取得してもよい。 The image generation device 340 includes the position and orientation of each imaging device 100 in the coordinate system 120 with the reference position in the race field 130 as the origin, and the focal length of each imaging device 100 for the virtual viewpoint image generation processing described later. A parameter indicating the distance is stored. The parameters related to these shootings are hereinafter referred to as calibration information of the shooting system 110. The calibration information may include other parameters related to shooting. Further, in the present embodiment, it is assumed that the imaging system 110 calibration information is stored in the image generation device 340 in advance, but the image generation device 340 stores the calibration information from other devices such as the imaging system 110 and the control device 320. You may get it.

ハブ300は、撮影システム110が撮影した複数の撮影画像を取得し、画像生成装置340へ出力する。ここで、ハブ300に接続されたタイムサーバ310は撮影システム110に時間同期情報を送信し、撮影システム110はタイムサーバ310からの時間同期情報に基づいて同期して撮影画像を送信する。なお、撮影システム110の各撮影装置100は、ハブ300に対して1対1で接続してもよいし、撮影装置100同士がデイジーチェーン接続されていてもよい。 The hub 300 acquires a plurality of captured images captured by the photographing system 110 and outputs them to the image generation device 340. Here, the time server 310 connected to the hub 300 transmits the time synchronization information to the photographing system 110, and the photographing system 110 transmits the photographed image in synchronization based on the time synchronization information from the time server 310. Each photographing device 100 of the photographing system 110 may be connected to the hub 300 on a one-to-one basis, or the photographing devices 100 may be connected to each other in a daisy chain.

制御装置320は、撮影システム110の状態を制御する。制御UI330は、撮影システム110の状態を制御するためのユーザ操作を可能にするユーザインタフェースであり、ユーザ操作に応じた入力を制御装置320へ送る。撮影システム110の状態の制御には、具体的には、撮影システム110の時間同期設定、撮影の開始や停止、ズームやフォーカスの調整、及びISOやIRIS等の明るさの設定などがある。制御装置320と制御UI330は物理的に一体となって構成されていてもよい。また、制御装置320は、ハブ300を介さず撮影システム110と直接接続されていてもよい。 The control device 320 controls the state of the photographing system 110. The control UI 330 is a user interface that enables a user operation for controlling the state of the photographing system 110, and sends an input corresponding to the user operation to the control device 320. Specifically, the control of the state of the shooting system 110 includes time synchronization setting of the shooting system 110, start / stop of shooting, adjustment of zoom and focus, and setting of brightness such as ISO and IRIS. The control device 320 and the control UI 330 may be physically integrated. Further, the control device 320 may be directly connected to the photographing system 110 without going through the hub 300.

画像生成装置340は、図2で示した座標系120における撮影システム110のキャリブレーション情報と、撮影システム110により取得された複数の撮影画像と、視点操作UI350から取得した視点情報とに基づいて、仮想視点画像を生成する。生成された仮想視点画像は、視点操作UI350と出力装置360へ出力される。仮想視点画像の生成に用いられる視点情報は、仮想視点の位置及び向き(視線方向)を示す情報である。具体的には、視点情報は、仮想視点の三次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。 The image generation device 340 is based on the calibration information of the photographing system 110 in the coordinate system 120 shown in FIG. 2, the plurality of captured images acquired by the photographing system 110, and the viewpoint information acquired from the viewpoint operation UI 350. Generate a virtual viewpoint image. The generated virtual viewpoint image is output to the viewpoint operation UI 350 and the output device 360. The viewpoint information used to generate the virtual viewpoint image is information indicating the position and direction (line-of-sight direction) of the virtual viewpoint. Specifically, the viewpoint information is a parameter set including a parameter representing a three-dimensional position of the virtual viewpoint and a parameter representing the orientation of the virtual viewpoint in the pan, tilt, and roll directions. The content of the viewpoint information is not limited to the above. For example, the parameter set as the viewpoint information may include a parameter representing the size (angle of view) of the field of view of the virtual viewpoint. Further, the viewpoint information may have a plurality of parameter sets. For example, the viewpoint information may have a plurality of parameter sets corresponding to a plurality of frames constituting a moving image of the virtual viewpoint image, and may be information indicating the position and orientation of the virtual viewpoint at each of a plurality of consecutive time points. ..

仮想視点画像は、例えば以下のような方法で生成される。まず、複数の撮影装置100によりそれぞれ異なる方向から撮影することで複数の画像(複数視点画像)が取得される。次に、複数視点画像から、レース車両などの所定のオブジェクトに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。また、所定のオブジェクトの三次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成され、競技場などの背景の三次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。ただし、仮想視点画像の生成方法はこれに限定されず、三次元モデルを用いずに撮影画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。 The virtual viewpoint image is generated by, for example, the following method. First, a plurality of images (multiple viewpoint images) are acquired by taking pictures from different directions by the plurality of photographing devices 100. Next, a foreground image in which a foreground area corresponding to a predetermined object such as a race vehicle is extracted and a background image in which a background area other than the foreground area is extracted are acquired from the plurality of viewpoint images. In addition, a foreground model representing the three-dimensional shape of a predetermined object and texture data for coloring the foreground model are generated based on the foreground image, and the background model representing the three-dimensional shape of the background such as a stadium is colored. Texture data is generated based on the background image. Then, a virtual viewpoint image is generated by mapping the texture data to the foreground model and the background model and performing rendering according to the virtual viewpoint indicated by the viewpoint information. However, the method of generating a virtual viewpoint image is not limited to this, and various methods such as a method of generating a virtual viewpoint image by projective transformation of a captured image without using a three-dimensional model can be used.

視点操作UI350は、仮想視点を操作するためのユーザ操作を可能にするユーザインタフェースであり、ユーザ操作に応じた入力として視点情報を画像生成装置340へ出力する。また、視点操作UI350は、出力装置360に対して、仮想視点画像と車載撮影装置200により取得された撮影画像との切り替え指示を出す。切り替え指示の詳細については後述する。画像生成装置340と視点操作UI350は物理的に一体となって構成されていてもよい。 The viewpoint operation UI 350 is a user interface that enables user operations for operating a virtual viewpoint, and outputs viewpoint information to the image generation device 340 as input according to the user operation. Further, the viewpoint operation UI 350 issues an instruction to the output device 360 to switch between the virtual viewpoint image and the captured image acquired by the in-vehicle imaging device 200. The details of the switching instruction will be described later. The image generation device 340 and the viewpoint operation UI 350 may be physically integrated.

車載撮影装置200は、撮影領域内を移動する移動撮影装置の一例であり、レース場130内を走行する車両に設置され、車両と共に移動しながら撮影を行う車載カメラである。そして車載撮影装置200は、無線の通信装置を介して撮影画像を出力装置360へ送信する。なお、車載撮影装置200は一台の車両に複数設置されていてもよい。また、車載撮影装置200は、レースに参加する複数の車両のすべてに設置されていてもよいし、一部の車両にのみ設置されていてもよい。 The in-vehicle photographing device 200 is an example of a moving photographing device that moves in the photographing area, and is an in-vehicle camera that is installed in a vehicle traveling in the race field 130 and takes an image while moving together with the vehicle. Then, the in-vehicle photographing device 200 transmits the captured image to the output device 360 via the wireless communication device. A plurality of in-vehicle photographing devices 200 may be installed in one vehicle. Further, the in-vehicle photographing device 200 may be installed in all of a plurality of vehicles participating in the race, or may be installed in only some of the vehicles.

図3は、車載撮影装置200が設置された車両の一例を示す。この例では四輪の車両230に車載撮影装置200が搭載されている。画像生成装置340には、後述する仮想視点の制御のために、車両230の基準位置を原点とする座標系220における車載撮影装置200の位置及び向き、並びに車載撮影装置200の焦点距離を示すパラメータが記憶される。これらの撮影に係るパラメータを、以下では車載撮影装置200のキャリブレーション情報と表記する。なお、車載撮影装置200のキャリブレーション情報に含まれるパラメータは上記に限定されない。また、本実施形態では車載撮影装置200のキャリブレーション情報が予め画像生成装置340に記憶されているものとするが、画像生成装置340は撮影システム110や制御装置320などの他の装置からキャリブレーション情報を取得してもよい。座標系220は、車両230の前方をx軸、側方をy軸、上方をz軸とする三次元座標系である。例えば、原点(0、0、0)に対する車載撮影装置200の相対位置は座標(Xs1、Ys1、Zs1)で表される。 FIG. 3 shows an example of a vehicle in which the in-vehicle photographing device 200 is installed. In this example, the vehicle-mounted photographing device 200 is mounted on the four-wheeled vehicle 230. The image generation device 340 has parameters indicating the position and orientation of the vehicle-mounted image pickup device 200 in the coordinate system 220 with the reference position of the vehicle 230 as the origin, and the focal length of the vehicle-mounted image pickup device 200 for controlling the virtual viewpoint described later. Is remembered. The parameters related to these shootings are hereinafter referred to as calibration information of the in-vehicle shooting device 200. The parameters included in the calibration information of the in-vehicle photographing apparatus 200 are not limited to the above. Further, in the present embodiment, it is assumed that the calibration information of the in-vehicle photographing apparatus 200 is stored in the image generating apparatus 340 in advance, but the image generating apparatus 340 is calibrated from other apparatus such as the photographing system 110 and the control device 320. Information may be obtained. The coordinate system 220 is a three-dimensional coordinate system in which the front of the vehicle 230 is the x-axis, the side is the y-axis, and the upper side is the z-axis. For example, the relative position of the vehicle-mounted photographing apparatus 200 with respect to the origin (0, 0, 0) is represented by coordinates (Xs1, Ys1, Zs1).

また、車両230には、撮影システム110により取得された撮影画像から車両を一意に特定したり車両の形状を特定したりするための、車両識別用のマーカ210−1、マーカ210−2、マーカ210−3、及びマーカ210−4が付与されている。以下では、これらのマーカを特に区別しない場合にはマーカ210と表記する。マーカ210は、撮影システム110の撮影装置100から同時に複数のマーカ210が撮影できるように付与される。なお、図3の例では車両230に4つのマーカ210が付与されているが、車両の向きや形状を正確に特定できるように、より多くのマーカ210が付与されていてもよい。また、車両の特定の精度を向上させるために、それぞれのマーカ210のパターンは異なるものとしているが、一部または全部のマーカ210が同じパターンであってもよい。また、図3の例ではマーカ210を特定の幾何学パターンとしたが、車両に付された広告のロゴや車両の特徴点などが車両識別用のマーカ210として用いられてもよい。画像生成装置340は、座標系220における各マーカ210の位置も予め記憶しておく。例えば、4つのマーカ210の位置の座標は、それぞれ(Xm1、Ym1、Zm1)、(Xm2、Ym2、Zm2)、(Xm3、Ym3、Zm3)、及び(Xm4、Ym4、Zm4)で表される。 Further, the vehicle 230 has a vehicle identification marker 210-1, a marker 210-2, and a marker for uniquely identifying the vehicle or specifying the shape of the vehicle from the photographed image acquired by the photographing system 110. 210-3 and a marker 210-4 are attached. In the following, when these markers are not particularly distinguished, they are referred to as markers 210. The marker 210 is provided so that a plurality of markers 210 can be simultaneously photographed from the photographing apparatus 100 of the photographing system 110. In the example of FIG. 3, four markers 210 are attached to the vehicle 230, but more markers 210 may be attached so that the orientation and shape of the vehicle can be accurately specified. Further, in order to improve the specific accuracy of the vehicle, the patterns of the respective markers 210 are different, but some or all of the markers 210 may have the same pattern. Further, although the marker 210 is used as a specific geometric pattern in the example of FIG. 3, an advertisement logo attached to the vehicle, a feature point of the vehicle, or the like may be used as the marker 210 for vehicle identification. The image generation device 340 also stores in advance the position of each marker 210 in the coordinate system 220. For example, the coordinates of the positions of the four markers 210 are represented by (Xm1, Ym1, Zm1), (Xm2, Ym2, Zm2), (Xm3, Ym3, Zm3), and (Xm4, Ym4, Zm4), respectively.

出力装置360は、画像生成装置340からの仮想視点画像の入力と、車載撮影装置200からの撮影画像の入力とを受信する。そして出力装置360は、視点操作UI350からの切り替え指示に基づき、仮想視点画像と撮影画像とを切り替えながら出力する。出力装置360からの画像の出力先は、例えば、不図示の記憶装置や表示装置、画像配信ネットワークなどである。出力装置360から画像が出力されることにより、仮想視点画像と撮影画像とを含む画像コンテンツが生成され、最終的に視聴者に画像コンテンツが提供される。 The output device 360 receives the input of the virtual viewpoint image from the image generation device 340 and the input of the captured image from the vehicle-mounted photographing device 200. Then, the output device 360 outputs while switching between the virtual viewpoint image and the captured image based on the switching instruction from the viewpoint operation UI 350. The output destination of the image from the output device 360 is, for example, a storage device (not shown), a display device, an image distribution network, or the like. By outputting the image from the output device 360, the image content including the virtual viewpoint image and the captured image is generated, and finally the image content is provided to the viewer.

なお、本実施形態では、出力装置360により出力される画像コンテンツにおいて、仮想視点画像と車載撮影装置200の撮影画像とが切り替わって表示されるものとするが、画像コンテンツの表示内容はこれに限定されない。例えば、出力装置360が車載撮影装置200の撮影画像と仮想視点画像とを同時に出力することで、これらの画像が同時に表示される画像コンテンツが生成されてもよい。また、出力装置360は、車載撮影装置200の撮影画像と仮想視点画像とを合成することで生成された画像コンテンツを出力してもよい。また、生成対象の画像コンテンツに含まれる画像は仮想視点画像と車載撮影装置200の撮影画像に限定されない。生成対象の画像コンテンツには、例えば撮影装置100やレース場に設置されたその他のカメラにより取得された画像が含まれてもよいし、画像以外のテロップなどの情報が含まれてもよい。また、切り替え指示は視点操作UI350以外の装置から入力されてもよい。 In the present embodiment, in the image content output by the output device 360, the virtual viewpoint image and the captured image of the in-vehicle photographing device 200 are switched and displayed, but the display content of the image content is limited to this. Not done. For example, the output device 360 may simultaneously output the captured image of the vehicle-mounted imaging device 200 and the virtual viewpoint image to generate image content in which these images are displayed at the same time. Further, the output device 360 may output the image content generated by synthesizing the captured image of the vehicle-mounted photographing device 200 and the virtual viewpoint image. Further, the images included in the image contents to be generated are not limited to the virtual viewpoint image and the captured image of the in-vehicle photographing device 200. The image content to be generated may include, for example, an image acquired by a photographing device 100 or another camera installed in a race track, or may include information such as a telop other than the image. Further, the switching instruction may be input from a device other than the viewpoint operation UI 350.

また、出力装置360は、仮想視点画像と車載撮影装置200の撮影画像との入力遅延差を調整する機能も有する。撮影システム110による撮影から仮想視点画像の生成までの画像処理には遅延が発生する一方、車載撮影装置200から出力装置360への撮影画像の伝送処理にも遅延が発生する。出力装置360は、これらの遅延の差を調整するための画像バッファを有し、切り替えながら出力される仮想視点画像と撮影画像とを同期させることができる。 Further, the output device 360 also has a function of adjusting the input delay difference between the virtual viewpoint image and the captured image of the vehicle-mounted photographing device 200. While there is a delay in the image processing from shooting by the shooting system 110 to the generation of the virtual viewpoint image, there is also a delay in the transmission processing of the shot image from the in-vehicle shooting device 200 to the output device 360. The output device 360 has an image buffer for adjusting the difference between these delays, and can synchronize the virtual viewpoint image and the captured image that are output while switching.

なお、画像処理システム1の構成は図1に示した例に限定されるものではない。例えば、画像生成装置340と制御装置320とが一体となって構成されていてもよい。また、車載撮影装置200により取得された撮影画像が画像生成装置340に入力され、画像生成装置340が撮影画像と仮想視点画像とを合成して出力装置360へ出力してもよい。 The configuration of the image processing system 1 is not limited to the example shown in FIG. For example, the image generation device 340 and the control device 320 may be integrally configured. Further, the captured image acquired by the in-vehicle imaging device 200 may be input to the image generation device 340, and the image generation device 340 may synthesize the captured image and the virtual viewpoint image and output the captured image to the output device 360.

図4は、画像生成装置340の機能構成例を示す。画像生成装置340は、画像処理部3401、画像記憶部3402、オブジェクト情報入力部3403、キャリブレーション情報入力部3404、オブジェクト識別部3405、座標変換部3406、視点入力部3407、及び情報記憶部3408を有する。各機能部は内部バス3409を介して接続されており、双方向の通信が可能になっている。 FIG. 4 shows an example of the functional configuration of the image generation device 340. The image generation device 340 includes an image processing unit 3401, an image storage unit 3402, an object information input unit 3403, a calibration information input unit 3404, an object identification unit 3405, a coordinate conversion unit 3406, a viewpoint input unit 3407, and an information storage unit 3408. Have. Each functional unit is connected via an internal bus 3409, and bidirectional communication is possible.

画像処理部3401は、撮影システム110から取得した撮影画像と撮影システム110のキャリブレーション情報に基づいて、車両等のオブジェクトの三次元形状を表すデータである3Dモデルを生成し、後述の画像記憶部3402へ格納する。また、画像処理部3401は、画像記憶部3402から3Dモデルを読み出し、視点操作UI350から取得した視点情報に基づいて3Dモデルをレンダリングすることで、仮想視点画像を生成する。生成された仮想視点画像は、出力装置360及び視点操作UI350に出力される。なお、画像処理部3401は、3Dモデルの生成からレンダリング、及び外部への仮想視点画像の出力までの一連の処理を、予め決められた時間内で行う。例えば、仮想視点画像がライブ放送で使用される場合、この一連の処理を所定のフレームレートで規定された周期Vの時間内で処理する。画像記憶部3402は、オブジェクトの3Dモデルや、レンダリングに必要なオブジェクトのテクスチャ情報や、キャリブレーション情報を記憶する。 The image processing unit 3401 generates a 3D model which is data representing the three-dimensional shape of an object such as a vehicle based on the photographed image acquired from the photographing system 110 and the calibration information of the photographing system 110, and the image storage unit described later. Store in 3402. Further, the image processing unit 3401 reads a 3D model from the image storage unit 3402 and renders the 3D model based on the viewpoint information acquired from the viewpoint operation UI 350 to generate a virtual viewpoint image. The generated virtual viewpoint image is output to the output device 360 and the viewpoint operation UI 350. The image processing unit 3401 performs a series of processing from the generation of the 3D model to the rendering and the output of the virtual viewpoint image to the outside within a predetermined time. For example, when a virtual viewpoint image is used in live broadcasting, this series of processing is processed within a time of a period V defined by a predetermined frame rate. The image storage unit 3402 stores a 3D model of the object, texture information of the object necessary for rendering, and calibration information.

オブジェクト情報入力部3403は、車両識別テーブル700を外部から取得し、情報記憶部3408へ格納する。図7は車両識別テーブル700の例を示す。車両識別テーブル700には、車両Aに付与されている車両識別用のマーカ210のパターン、及び車両Aを基準とする座標系220における各マーカ210の座標が記されている。レース場130内に車両が複数存在する場合、車両の識別精度を高めるために、マーカ210のパターンは車両ごとに異なる。しかしこれに限定されず、複数の車両に付与されるマーカ210の一部が同じパターンであってもよい。この場合、マーカ210の組合せを車両毎に異ならせることで、車両の識別を可能にする。 The object information input unit 3403 acquires the vehicle identification table 700 from the outside and stores it in the information storage unit 3408. FIG. 7 shows an example of the vehicle identification table 700. The vehicle identification table 700 describes the pattern of the vehicle identification marker 210 assigned to the vehicle A and the coordinates of each marker 210 in the coordinate system 220 with respect to the vehicle A. When there are a plurality of vehicles in the race track 130, the pattern of the marker 210 is different for each vehicle in order to improve the identification accuracy of the vehicles. However, the present invention is not limited to this, and a part of the markers 210 given to the plurality of vehicles may have the same pattern. In this case, the combination of the markers 210 is made different for each vehicle, so that the vehicle can be identified.

キャリブレーション情報入力部3404は、車載撮影装置200のキャリブレーション情報が記載されたキャリブレーションテーブル800を外部から取得し、情報記憶部3408へ格納する。図8はキャリブレーションテーブル800の例を示す。キャリブレーションテーブル800には、車両Aに設置された車載撮影装置200の位置座標の他、車載撮影装置200の向きを示すベクトル情報が記載されている。なお、この例では車載撮影装置200の光軸方向を示すベクトル情報が記載されているが、車載撮影装置200の傾きを示す情報が記載されていてもよい。また、キャリブレーションテーブル800には車載撮影装置200の焦点距離や明るさの情報が記載されていてもよい。 The calibration information input unit 3404 acquires the calibration table 800 in which the calibration information of the in-vehicle photographing apparatus 200 is described from the outside and stores it in the information storage unit 3408. FIG. 8 shows an example of the calibration table 800. In the calibration table 800, in addition to the position coordinates of the in-vehicle photographing apparatus 200 installed in the vehicle A, vector information indicating the direction of the in-vehicle photographing apparatus 200 is described. In this example, the vector information indicating the optical axis direction of the in-vehicle photographing apparatus 200 is described, but the information indicating the inclination of the in-vehicle photographing apparatus 200 may be described. Further, the calibration table 800 may contain information on the focal length and brightness of the in-vehicle photographing apparatus 200.

オブジェクト識別部3405は、画像記憶部3402に格納されたオブジェクトの3Dモデルと、情報記憶部3408に格納された車両識別テーブル700に基づいて、撮影領域内の車両を識別すると共に、各車両の位置及び向きを特定する。位置及び向きを特定する処理の詳細については後述する。座標変換部3406は、オブジェクト識別部3405が識別した車両に対応する座標系220とレース場130に対応する座標系120との関係を特定する。そして座標変換部3406は、情報記憶部3408に格納されたキャリブレーションテーブル800に含まれる車載撮影装置200のキャリブレーション情報を、座標系220に対応する座標値から座標系120に対応する座標値へ変換する。座標値の変換処理の詳細については後述する。 The object identification unit 3405 identifies vehicles in the photographing area based on the 3D model of the object stored in the image storage unit 3402 and the vehicle identification table 700 stored in the information storage unit 3408, and positions each vehicle. And specify the orientation. Details of the process for specifying the position and orientation will be described later. The coordinate conversion unit 3406 specifies the relationship between the coordinate system 220 corresponding to the vehicle identified by the object identification unit 3405 and the coordinate system 120 corresponding to the race field 130. Then, the coordinate conversion unit 3406 changes the calibration information of the in-vehicle photographing apparatus 200 included in the calibration table 800 stored in the information storage unit 3408 from the coordinate value corresponding to the coordinate system 220 to the coordinate value corresponding to the coordinate system 120. Convert. The details of the coordinate value conversion process will be described later.

視点入力部3407は、視点操作UI350から仮想視点の指定に応じた視点情報を取得し、画像処理部3401へ視点情報を入力する。視点情報の取得は周期Vごとに行われる。また視点入力部3407は、座標変換部3406で変換された車載撮影装置200のキャリブレーション情報を視点操作UI350へ出力する。情報記憶部3408は、車両識別テーブル700とキャリブレーションテーブル800を記憶する。 The viewpoint input unit 3407 acquires viewpoint information according to the designation of the virtual viewpoint from the viewpoint operation UI 350, and inputs the viewpoint information to the image processing unit 3401. Acquisition of viewpoint information is performed every cycle V. Further, the viewpoint input unit 3407 outputs the calibration information of the in-vehicle photographing apparatus 200 converted by the coordinate conversion unit 3406 to the viewpoint operation UI 350. The information storage unit 3408 stores the vehicle identification table 700 and the calibration table 800.

図5は、視点操作UI350の機能構成例を示す。視点操作UI350は、視点出力部3501、視点生成部3502、トラッキング部3503、切り替え指示部3504、視点記憶部3505、操作入力部3506、及び表示出力部3507を有する。これらの機能部は内部バス3508を介して接続されており、双方向の通信が可能になっている。 FIG. 5 shows an example of a functional configuration of the viewpoint operation UI 350. The viewpoint operation UI 350 includes a viewpoint output unit 3501, a viewpoint generation unit 3502, a tracking unit 3503, a switching instruction unit 3504, a viewpoint storage unit 3505, an operation input unit 3506, and a display output unit 3507. These functional units are connected via the internal bus 3508, and bidirectional communication is possible.

視点出力部3501は、画像生成装置340に対して、視点生成部3502により生成された視点情報を周期Vごとに出力する。また視点出力部3501は、画像生成装置340から車載撮影装置200の変換後のキャリブレーション情報を取得し、視点記憶部3505へ格納する。視点生成部3502は、操作入力部3506を介して入力された操作情報を元に視点情報を生成する。操作情報には、仮想視点の上下左右への平行移動、パンやチルト方向への向きの変更、焦点距離の変更、及びその仮想視点の移動速度の指示などを示す情報が含まれる。視点生成部3502は、現在の仮想視点に対して操作情報に従った変更を加えた変更後の仮想視点を示す視点情報を生成する。トラッキング部3503は、視点記憶部3505に記憶されているキャリブレーション情報が示す現在の車載撮影装置200の位置と、視点出力部3501が出力した視点情報が示す現在の仮想視点の位置との距離に基づいて、次の仮想視点を決定する。 The viewpoint output unit 3501 outputs the viewpoint information generated by the viewpoint generation unit 3502 to the image generation device 340 for each period V. Further, the viewpoint output unit 3501 acquires the converted calibration information of the in-vehicle photographing apparatus 200 from the image generation device 340 and stores it in the viewpoint storage unit 3505. The viewpoint generation unit 3502 generates viewpoint information based on the operation information input via the operation input unit 3506. The operation information includes information indicating parallel movement of the virtual viewpoint in the vertical and horizontal directions, change of the direction in the pan and tilt directions, change of the focal length, and instruction of the movement speed of the virtual viewpoint. The viewpoint generation unit 3502 generates viewpoint information indicating the changed virtual viewpoint obtained by making changes according to the operation information to the current virtual viewpoint. The tracking unit 3503 determines the distance between the current position of the in-vehicle imaging device 200 indicated by the calibration information stored in the viewpoint storage unit 3505 and the current position of the virtual viewpoint indicated by the viewpoint information output by the viewpoint output unit 3501. Based on this, the next virtual viewpoint is determined.

切り替え指示部3504は、出力装置360に対して、仮想視点画像から車載撮影装置200の撮影画像への切り替え、或いは、車載撮影装置200の撮影画像から仮想視点画像へ切り替えを指示する。視点記憶部3505は、視点出力部3501を介して、車載撮影装置200のキャリブレーション情報を周期Vごとに記憶する。操作入力部3506は、仮想視点を指定するためのユーザ操作を受け付け、ユーザ操作に応じた操作情報を視点生成部3502へ出力する。また、操作入力部3506は、画像切り替えを指示するためのユーザ操作を受け付け、ユーザ操作に応じた入力を画像切り替え指示部3504へ出力する。表示出力部3507は、画像生成装置340から取得した仮想視点画像を表示する。ユーザはこの表示された仮想視点画像を目視で確認しながら操作を行うことができる。 The switching instruction unit 3504 instructs the output device 360 to switch from the virtual viewpoint image to the captured image of the vehicle-mounted photographing device 200, or to switch from the captured image of the vehicle-mounted photographing device 200 to the virtual viewpoint image. The viewpoint storage unit 3505 stores the calibration information of the vehicle-mounted photographing apparatus 200 for each cycle V via the viewpoint output unit 3501. The operation input unit 3506 accepts a user operation for designating a virtual viewpoint, and outputs operation information corresponding to the user operation to the viewpoint generation unit 3502. Further, the operation input unit 3506 accepts a user operation for instructing image switching, and outputs an input corresponding to the user operation to the image switching instruction unit 3504. The display output unit 3507 displays a virtual viewpoint image acquired from the image generation device 340. The user can perform the operation while visually confirming the displayed virtual viewpoint image.

[ハードウェア構成]
図6に視点操作UI350のハードウェア構成の一例を示す。なお、制御装置320、制御UI330、及び画像生成装置340のハードウェア構成も、以下で説明する視点操作UI350の構成と同様である。視点操作UI350は、CPU3510、ROM3511、RAM3512、補助記憶装置3513、表示部3514、操作部3515、通信I/F3516、及びバス3517を有する。
[Hardware configuration]
FIG. 6 shows an example of the hardware configuration of the viewpoint operation UI 350. The hardware configurations of the control device 320, the control UI 330, and the image generation device 340 are the same as the configurations of the viewpoint operation UI 350 described below. The viewpoint operation UI 350 includes a CPU 3510, a ROM 3511, a RAM 3512, an auxiliary storage device 3513, a display unit 3514, an operation unit 3515, a communication I / F 3516, and a bus 3517.

CPU3510は、ROM3511やRAM3512に格納されているコンピュータプログラムやデータを用いて視点操作UI350の全体を制御することで、図4に示す視点操作UI350の各機能を実現する。なお、視点操作UI350がCPU3510とは異なる1又は複数の専用のハードウェアを有し、CPU3510による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM3511は、変更を必要としないプログラムなどを格納する。RAM3512は、補助記憶装置3513から供給されるプログラムやデータ、及び通信I/F3516を介して外部から供給されるデータなどを一時記憶する。補助記憶装置3513は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。 The CPU 3510 realizes each function of the viewpoint operation UI 350 shown in FIG. 4 by controlling the entire viewpoint operation UI 350 using computer programs and data stored in the ROM 3511 and the RAM 3512. The viewpoint operation UI 350 may have one or more dedicated hardware different from the CPU 3510, and the dedicated hardware may execute at least a part of the processing by the CPU 3510. Examples of dedicated hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors). The ROM 3511 stores programs and the like that do not require changes. The RAM 3512 temporarily stores programs and data supplied from the auxiliary storage device 3513, data supplied from the outside via the communication I / F 3516, and the like. The auxiliary storage device 3513 is composed of, for example, a hard disk drive or the like, and stores various data such as image data and audio data.

表示部3514は、例えば液晶ディス選手LED等で構成され、ユーザが情報処理装置を操作するためのGUI(Graphical User Interface)などを表示する。操作部3515は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU3510に入力する。CPU3510は、表示部3514を制御する表示制御部、及び操作部3515を制御する操作制御部として動作する。通信I/F3516は、視点操作UI350の外部の装置との通信に用いられる。例えば、視点操作UI350が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F3516に接続される。視点操作UI350が外部の装置と無線通信する機能を有する場合には、通信I/F3516はアンテナを備える。バス3517は、視点操作UI350の各部をつないで情報を伝達する。 The display unit 3514 is composed of, for example, a liquid crystal display LED or the like, and displays a GUI (Graphical User Interface) for the user to operate the information processing device. The operation unit 3515 is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, or the like, and inputs various instructions to the CPU 3510 in response to an operation by the user. The CPU 3510 operates as a display control unit that controls the display unit 3514 and an operation control unit that controls the operation unit 3515. The communication I / F 3516 is used for communication with an external device of the viewpoint operation UI 350. For example, when the viewpoint operation UI 350 is connected to an external device by wire, a communication cable is connected to the communication I / F 3516. When the viewpoint operation UI 350 has a function of wirelessly communicating with an external device, the communication I / F 3516 includes an antenna. The bus 3517 connects each part of the viewpoint operation UI 350 to transmit information.

本実施形態では表示部3514と操作部3515が視点操作UI350の内部に存在するものとするが、表示部3514と操作部3515との少なくとも一方が視点操作UI350の外部に別の装置として存在していてもよい。 In the present embodiment, it is assumed that the display unit 3514 and the operation unit 3515 exist inside the viewpoint operation UI 350, but at least one of the display unit 3514 and the operation unit 3515 exists as another device outside the viewpoint operation UI 350. You may.

[画像生成装置の動作フロー]
図9は、画像生成装置340による車載撮影装置200のキャリブレーション情報の取得に係る処理の例を示すフローチャートである。図9に示す処理は、画像生成装置340のCPU3510がROM3511に格納されたプログラムをRAM3512に展開して実行することで実現される。なお、図9に示す処理の少なくとも一部を、CPU3510とは異なる1又は複数の専用のハードウェアにより実現してもよい。後述する図10に示すフローチャートの処理も同様である。図9に示す処理は、画像コンテンツの生成を開始する前の事前設定処理において実行される。例えば図9の処理は、車両230に車載撮影装置200が搭載された後、或いは搭載する位置が決められた後に、画像生成装置340に対して事前設定の指示が入力されたタイミングで開始される。ただし、図9に示す処理の開始タイミングはこれに限定されない。
[Operation flow of image generator]
FIG. 9 is a flowchart showing an example of processing related to acquisition of calibration information of the in-vehicle photographing apparatus 200 by the image generating apparatus 340. The process shown in FIG. 9 is realized by the CPU 3510 of the image generation device 340 expanding the program stored in the ROM 3511 into the RAM 3512 and executing the program. It should be noted that at least a part of the processing shown in FIG. 9 may be realized by one or a plurality of dedicated hardware different from the CPU 3510. The same applies to the processing of the flowchart shown in FIG. 10 described later. The process shown in FIG. 9 is executed in the preset process before starting the generation of the image content. For example, the process of FIG. 9 is started at the timing when a preset instruction is input to the image generation device 340 after the in-vehicle photographing device 200 is mounted on the vehicle 230 or after the mounting position is determined. .. However, the start timing of the process shown in FIG. 9 is not limited to this.

S501において、画像生成装置340は、車両230の基準位置を原点とする座標系220を設定する。図3に示したように、車両230の基準位置を原点としてX、Y、Z軸方向が設定される。S502において、画像生成装置340は、座標系220における車両識別用のマーカ210の座標情報を設定する。設定された座標情報は、図7に示した車両識別テーブル700として記憶される。S503において、画像生成装置340は、車両230に設置された車載撮影装置200の座標系220における位置や向きを示すパラメータを設定し、図8に示したキャリブレーションテーブル800として記憶する。S502及びS503の処理は、例えば、画像生成装置340が車両230の形状とマーカ210及び車載撮影装置200の位置とを測定した結果を示す情報を外部から取得し、その情報に基づいて座標値やパラメータを算出することで実行される。 In S501, the image generation device 340 sets the coordinate system 220 with the reference position of the vehicle 230 as the origin. As shown in FIG. 3, the X, Y, and Z axis directions are set with the reference position of the vehicle 230 as the origin. In S502, the image generation device 340 sets the coordinate information of the marker 210 for vehicle identification in the coordinate system 220. The set coordinate information is stored in the vehicle identification table 700 shown in FIG. 7. In S503, the image generation device 340 sets parameters indicating the position and orientation in the coordinate system 220 of the vehicle-mounted photographing device 200 installed in the vehicle 230, and stores them as the calibration table 800 shown in FIG. In the processing of S502 and S503, for example, information indicating the result of the image generation device 340 measuring the shape of the vehicle 230 and the positions of the marker 210 and the in-vehicle photographing device 200 is acquired from the outside, and the coordinate values and the coordinate values are obtained based on the information. It is executed by calculating the parameters.

図10は、画像生成装置340による仮想視点画像の生成及びキャリブレーション情報の変換に係る処理の例を示すフローチャートである。図10に示す処理は、図9に示す処理と撮影システム110による撮影の後、画像生成装置340に対して仮想視点画像の生成の指示が入力されたタイミングで開始される。ただし、図10に示す処理の開始タイミングはこれに限定されない。図10に示す処理は、撮影システム110による撮影と並行して実行されてもよい。 FIG. 10 is a flowchart showing an example of processing related to generation of a virtual viewpoint image and conversion of calibration information by the image generation device 340. The process shown in FIG. 10 is started at the timing when an instruction to generate a virtual viewpoint image is input to the image generation device 340 after the process shown in FIG. 9 and the image taken by the photographing system 110. However, the start timing of the process shown in FIG. 10 is not limited to this. The process shown in FIG. 10 may be executed in parallel with the shooting by the shooting system 110.

S601において、画像処理部3401は、撮影システム110から複数の撮影画像を取得する。具体的には、画像処理部3401は、複数の撮影装置100が時間同期して撮影することで得られた同一フレーム(同一時刻)の複数の撮影画像を取得する。S602において、画像処理部3401は、各撮影画像から前景となる車両の領域とそれ以外の背景の領域とを抽出する。本実施形態では、前景と背景を抽出する方法として、あるフレームの撮影画像と1〜数フレーム前の撮影画像との画素ごとの色や明るさの差分を算出し、差分が所定値以上である画素からなる領域を前景として分離する方法を採用する。しかし、前景と背景を分離する方法はこれに限定されない。図11(a)は撮影装置100−1による撮影画像1100の例を示し、図11(b)は撮影画像1100から抽出された前景領域の画像1101と背景領域の画像1102との例を示す。同様に、図12(a)は撮影装置100―2による撮影画像1200の例を示し、図12(b)は撮影画像1200から抽出された前景領域の画像1201と背景領域の画像1202との例を示す。モータースポーツの場合、移動する車両が前景のオブジェクトとして抽出される。 In S601, the image processing unit 3401 acquires a plurality of captured images from the imaging system 110. Specifically, the image processing unit 3401 acquires a plurality of captured images of the same frame (same time) obtained by photographing the plurality of photographing devices 100 in time synchronization. In S602, the image processing unit 3401 extracts a vehicle region as a foreground and a background region other than the foreground region from each captured image. In the present embodiment, as a method of extracting the foreground and the background, the difference in color and brightness for each pixel between the captured image of a certain frame and the captured image one to several frames before is calculated, and the difference is a predetermined value or more. A method of separating an area consisting of pixels as a foreground is adopted. However, the method of separating the foreground and the background is not limited to this. FIG. 11A shows an example of the image 1100 captured by the photographing apparatus 100-1, and FIG. 11B shows an example of the image 1101 in the foreground region and the image 1102 in the background region extracted from the captured image 1100. Similarly, FIG. 12A shows an example of an image 1200 captured by the photographing apparatus 100-2, and FIG. 12B shows an example of an image 1201 in the foreground region and an image 1202 in the background region extracted from the captured image 1200. Is shown. In the case of motor sports, moving vehicles are extracted as objects in the foreground.

S603において、画像処理部3401は、抽出された前景の画像と撮影システム110のキャリブレーション情報に基づいてオブジェクトの3Dモデルを生成し、3Dモデルを画像記憶部3402へ格納する。撮影システム110のキャリブレーション情報はレース場130を基準とした座標系120に対応するため、レース場130内の車両を表す3Dモデルが座標系120に対応する三次元空間に配置されることとなる。 In S603, the image processing unit 3401 generates a 3D model of the object based on the extracted foreground image and the calibration information of the photographing system 110, and stores the 3D model in the image storage unit 3402. Since the calibration information of the photographing system 110 corresponds to the coordinate system 120 with respect to the race field 130, the 3D model representing the vehicle in the race field 130 is arranged in the three-dimensional space corresponding to the coordinate system 120. ..

S604において、視点入力部3407は、視点操作UI350から、レース場130を基準とする座標系120における仮想視点の位置及び向きを示す視点情報を取得する。S605において、画像処理部3401は、S604において取得された視点情報と画像記憶部3402に格納された3Dモデルとを用いてレンダリング処理を行い、仮想視点画像を生成する。S606において、画像処理部3401は、出力装置360及び視点操作UI350へ仮想視点画像を出力する。 In S604, the viewpoint input unit 3407 acquires viewpoint information indicating the position and orientation of the virtual viewpoint in the coordinate system 120 with respect to the race field 130 from the viewpoint operation UI 350. In S605, the image processing unit 3401 performs rendering processing using the viewpoint information acquired in S604 and the 3D model stored in the image storage unit 3402, and generates a virtual viewpoint image. In S606, the image processing unit 3401 outputs a virtual viewpoint image to the output device 360 and the viewpoint operation UI 350.

S607において、画像生成装置340は、仮想視点画像の生成処理を終了するか否かを判定する。例えば、生成処理の終了の指示が画像生成装置340に入力された場合、図10の処理は終了する。一方、仮想視点画像の生成処理が終了しない場合、S601へ戻る。S601からS612の処理は、仮想視点画像の生成処理を終了すると判定されるまで、周期Vごとに繰り返し実行される。なお、S603において3Dモデルが画像記憶部3402に格納されているため、後に仮想視点を変更して、リプレイやハイライト用の仮想視点画像を作成することもできる。 In S607, the image generation device 340 determines whether or not to end the generation process of the virtual viewpoint image. For example, when an instruction to end the generation process is input to the image generation device 340, the process of FIG. 10 ends. On the other hand, if the virtual viewpoint image generation process is not completed, the process returns to S601. The processes of S601 to S612 are repeatedly executed every cycle V until it is determined that the virtual viewpoint image generation process is completed. Since the 3D model is stored in the image storage unit 3402 in S603, the virtual viewpoint can be changed later to create a virtual viewpoint image for replay or highlighting.

S608において、オブジェクト識別部3405は、S602で抽出された前景の画像から車両識別用のマーカ210を検出する。具体的には、オブジェクト識別部3405は、予め情報記憶部3408に格納されている車両識別テーブル700を読み出し、前景の画像に対してマーカパターンのマッチング処理を行うことでマーカ210を検出する。図11(c)は、前景領域の画像1101からマーカ210を検出した結果のイメージ1103を示す。図12(c)は、前景領域の画像1201からマーカ210を検出した結果のイメージ1203を示す。なお、本実施形態では誤検知低減のために、所定値以下のサイズのマーカや所定角度以上の傾きのマーカを検知しないものとするが、マーカ検知処理はこれに限定されるものではない。 In S608, the object identification unit 3405 detects the vehicle identification marker 210 from the foreground image extracted in S602. Specifically, the object identification unit 3405 reads out the vehicle identification table 700 stored in the information storage unit 3408 in advance, and detects the marker 210 by performing a marker pattern matching process on the foreground image. FIG. 11C shows an image 1103 as a result of detecting the marker 210 from the image 1101 in the foreground region. FIG. 12C shows an image 1203 as a result of detecting the marker 210 from the image 1201 in the foreground region. In the present embodiment, in order to reduce erroneous detection, it is assumed that a marker having a size smaller than a predetermined value or a marker having a tilt equal to or larger than a predetermined angle is not detected, but the marker detection process is not limited to this.

S609において、オブジェクト識別部3405は、S603で生成された3Dモデル上での、S608で検出されたマーカ210の位置を特定する。図13は、撮影装置100−1の撮影画像と撮影装置100−2の撮影画像からそれぞれ検出されたマーカ210の、車両230の3Dモデル上における位置を示すイメージ図である。図13においては、撮影装置100−1の撮影面1301と撮影装置100−2の撮影面1302を模擬的に示している。4つのマーカ210の位置は、レース場130の基準位置を原点とする座標系120における座標情報として、それぞれ(Xn1、Yn1、Zn1)、(Xn2、Yn2、Zn2)、(Xn3、Yn3、Zn3)、及び(Xn4、Yn4、Zn4)で表される。このようなマーカ210の座標情報は、レース場130における車両230の位置を示している。なお、上述したように、画像生成装置340は3Dモデルを使用しない方法で仮想視点画像を生成してもよい。この場合には、オブジェクト識別部3405は、撮影画像からのマーカ210の検出結果と撮影システム110のキャリブレーション情報を用いて、三次元空間におけるマーカ210の座標情報を直接算出してもよい。 In S609, the object identification unit 3405 identifies the position of the marker 210 detected in S608 on the 3D model generated in S603. FIG. 13 is an image diagram showing the positions of the markers 210 detected from the captured image of the photographing device 100-1 and the photographed image of the photographing device 100-2 on the 3D model of the vehicle 230. In FIG. 13, the photographing surface 1301 of the photographing apparatus 100-1 and the photographing surface 1302 of the photographing apparatus 100-2 are simulated. The positions of the four markers 210 are (Xn1, Yn1, Zn1), (Xn2, Yn2, Zn2), (Xn3, Yn3, Zn3), respectively, as coordinate information in the coordinate system 120 with the reference position of the race field 130 as the origin. , And (Xn4, Yn4, Zn4). The coordinate information of such a marker 210 indicates the position of the vehicle 230 in the race field 130. As described above, the image generation device 340 may generate a virtual viewpoint image by a method that does not use a 3D model. In this case, the object identification unit 3405 may directly calculate the coordinate information of the marker 210 in the three-dimensional space by using the detection result of the marker 210 from the captured image and the calibration information of the imaging system 110.

S610において、オブジェクト識別部3405は、検出されたマーカ210の組合せ及びS609で特定された座標情報を車両識別テーブル700と照らし合わせて、検出されたマーカ210が付与されている車両の車両IDを識別する。このようにして車両IDを識別することで、例えばレース場130内を複数の車両が走っている場合であっても、特定の車両IDに対応する車両に付されたマーカ210の座標情報を取得できる。ただし、レース場130内にマーカ210が付された車両が一台しか存在しない場合、S610の処理は省略してもよい。 In S610, the object identification unit 3405 compares the combination of the detected markers 210 and the coordinate information specified in S609 with the vehicle identification table 700 to identify the vehicle ID of the vehicle to which the detected marker 210 is assigned. do. By identifying the vehicle ID in this way, for example, even when a plurality of vehicles are running in the race track 130, the coordinate information of the marker 210 attached to the vehicle corresponding to the specific vehicle ID is acquired. can. However, if there is only one vehicle with the marker 210 in the race track 130, the process of S610 may be omitted.

S611において、座標変換部3406は、マーカ210の座標情報に基づいて、レース場130を基準とする座標系120と車両230を基準とする座標系220との関係を特定し、車載撮影装置200のキャリブレーション情報に対して座標変換を行う。図14は、座標系120と座標系220との関係を示すイメージ図である。実線で示した直行座標がレース場130を基準とする座標系120であり、点線で示した直交座標は、座標系120の内部に統合された、車両230を基準とする座標系220である。例えば、座標系220の原点が座標系120における座標(Xg、Yg、Zg)で表される。また、座標系220の座標軸が座標系120における方向X’、Y’、Z’で表される。このような座標系同士の関係に基づいて、座標変換部3406は、車載撮影装置200のキャリブレーション情報を座標系220における座標から座標系120における座標へ変換する。例えば、座標系220における車載撮影装置200の位置を示す座標(Xs1,Ys1,Zs1)が、座標系220における座標(Xs2,Ys2,Zs2)に変換される。これにより、撮影領域における車載撮影装置200の位置が特定される。S612において、視点入力部3407は、S611で変換されたキャリブレーション情報を視点操作UI350へ出力する。 In S611, the coordinate conversion unit 3406 specifies the relationship between the coordinate system 120 based on the race field 130 and the coordinate system 220 based on the vehicle 230 based on the coordinate information of the marker 210, and the in-vehicle photographing apparatus 200 Coordinate conversion is performed on the calibration information. FIG. 14 is an image diagram showing the relationship between the coordinate system 120 and the coordinate system 220. The orthogonal coordinates shown by the solid line are the coordinate system 120 with respect to the race field 130, and the Cartesian coordinates shown by the dotted line are the coordinate system 220 with respect to the vehicle 230 integrated inside the coordinate system 120. For example, the origin of the coordinate system 220 is represented by the coordinates (Xg, Yg, Zg) in the coordinate system 120. Further, the coordinate axes of the coordinate system 220 are represented by the directions X', Y', and Z'in the coordinate system 120. Based on such a relationship between the coordinate systems, the coordinate conversion unit 3406 converts the calibration information of the vehicle-mounted photographing apparatus 200 from the coordinates in the coordinate system 220 to the coordinates in the coordinate system 120. For example, the coordinates (Xs1, Ys1, Zs1) indicating the position of the vehicle-mounted photographing apparatus 200 in the coordinate system 220 are converted into the coordinates (Xs2, Ys2, Zs2) in the coordinate system 220. Thereby, the position of the in-vehicle photographing apparatus 200 in the photographing area is specified. In S612, the viewpoint input unit 3407 outputs the calibration information converted in S611 to the viewpoint operation UI 350.

[視点操作UIの動作フロー]
図15及び図16は、視点操作UI350による仮想視点の決定及び画像の切り替え指示に係る処理の例を示すフローチャートである。図15及び図16に示す処理は、視点操作UI350のCPU3510がROM3511に格納されたプログラムをRAM3512に展開して実行することで実現される。なお、図15及び図16に示す処理の少なくとも一部を、CPU3510とは異なる1又は複数の専用のハードウェアにより実現してもよい。後述する図18及び図19に示すフローチャートの処理も同様である。図15及び図16に示す処理は、図12を用いて説明した画像生成装置340による仮想視点画像の生成処理と、出力装置360による画像コンテンツの出力とが開始されたタイミングで実行される。ただし、図15及び図16の処理の開始タイミングはこれに限定されない。なお、図15の処理は、出力装置360が車載撮影装置200の撮影画像を出力している場合に実行される。一方、出力装置360が仮想視点画像を出力している場合には図16の処理が実行される。
[Viewpoint operation UI operation flow]
15 and 16 are flowcharts showing an example of processing related to determination of a virtual viewpoint and an image switching instruction by the viewpoint operation UI 350. The processes shown in FIGS. 15 and 16 are realized by the CPU 3510 of the viewpoint operation UI 350 expanding the program stored in the ROM 3511 to the RAM 3512 and executing the program. It should be noted that at least a part of the processing shown in FIGS. 15 and 16 may be realized by one or a plurality of dedicated hardware different from the CPU 3510. The same applies to the processing of the flowcharts shown in FIGS. 18 and 19, which will be described later. The processes shown in FIGS. 15 and 16 are executed at the timing when the virtual viewpoint image generation process by the image generation device 340 described with reference to FIG. 12 and the output of the image content by the output device 360 are started. However, the start timing of the processes of FIGS. 15 and 16 is not limited to this. The process of FIG. 15 is executed when the output device 360 outputs the captured image of the vehicle-mounted photographing device 200. On the other hand, when the output device 360 outputs a virtual viewpoint image, the process of FIG. 16 is executed.

まず図15の処理について説明する。S701において、視点操作UI350は、仮想視点の制御に関するモードを視点追従モードに設定する。視点追従モードは、仮想視点の位置が車載撮影装置200に応じた位置(例えば車載撮影装置200と一致する位置)になるように制御するモードである。S702において、視点操作UI350は、画像生成装置340から図10のS612において出力された車載撮影装置200のキャリブレーション情報を取得し、視点記憶部3505へキャリブレーション情報を格納する。S703において、視点操作UI350は、仮想視点の位置が車載撮影装置200に応じた位置になるように、車載撮影装置200のキャリブレーション情報に基づいて視点情報を生成し、生成された視点情報を画像生成装置340へ出力する。画像生成装置340においては、この視点情報に基づいて仮想視点画像が生成される。 First, the process of FIG. 15 will be described. In S701, the viewpoint operation UI 350 sets the mode related to the control of the virtual viewpoint to the viewpoint tracking mode. The viewpoint tracking mode is a mode in which the position of the virtual viewpoint is controlled so as to be a position corresponding to the vehicle-mounted image pickup device 200 (for example, a position corresponding to the vehicle-mounted image pickup device 200). In S702, the viewpoint operation UI 350 acquires the calibration information of the in-vehicle photographing apparatus 200 output in S612 of FIG. 10 from the image generation device 340, and stores the calibration information in the viewpoint storage unit 3505. In S703, the viewpoint operation UI 350 generates viewpoint information based on the calibration information of the vehicle-mounted photographing device 200 so that the position of the virtual viewpoint is the position corresponding to the vehicle-mounted photographing device 200, and the generated viewpoint information is used as an image. Output to the generator 340. In the image generation device 340, a virtual viewpoint image is generated based on this viewpoint information.

S704において、視点操作UI350は、出力装置360から出力される画像を切り替えるか否かを判定する。例えば、ユーザから画像切り替えの指示が入力された場合、画像を切り替えるべきであると判定され、S705に進む。一方、ユーザから画像切り替えの指示が入力されない場合、画像を切り替えるべきでないと判定され、S702に戻る。画像切り替えが行わない場合、S702とS703の処理が周期Vごとに実行される。なお、画像切り替えの判断基準は上記に限定されない。 In S704, the viewpoint operation UI 350 determines whether or not to switch the image output from the output device 360. For example, when an instruction for image switching is input from the user, it is determined that the image should be switched, and the process proceeds to S705. On the other hand, if the user does not input an image switching instruction, it is determined that the image should not be switched, and the process returns to S702. When the image is not switched, the processes of S702 and S703 are executed every cycle V. The criteria for determining image switching are not limited to the above.

S705において、画像切り替え指示部3504は、出力装置360に対して、出力画像を車載撮影装置200の撮影画像から仮想視点画像へ切り替える指示を行う。この時点において、画像生成装置340により生成される仮想視点画像は、車載撮影装置200に応じた位置の仮想視点に対応する仮想視点画像となっている。そのため、出力装置360から出力される画像が車載撮影装置200の撮影画像から仮想視点画像に切り替わっても画像の構図が大きく変化することがなく、シームレスな画像切り替えが実現できる。S706において、視点操作UI350は、仮想視点の制御に関するモードを視点操作モードに設定する。視点操作モードは、仮想視点がユーザ操作に基づいて変化するように制御するモードである。 In S705, the image switching instruction unit 3504 instructs the output device 360 to switch the output image from the captured image of the vehicle-mounted photographing device 200 to the virtual viewpoint image. At this point, the virtual viewpoint image generated by the image generation device 340 is a virtual viewpoint image corresponding to the virtual viewpoint at the position corresponding to the in-vehicle photographing device 200. Therefore, even if the image output from the output device 360 is switched from the image captured by the in-vehicle imaging device 200 to the virtual viewpoint image, the composition of the image does not change significantly, and seamless image switching can be realized. In S706, the viewpoint operation UI 350 sets the mode related to the control of the virtual viewpoint to the viewpoint operation mode. The viewpoint operation mode is a mode in which the virtual viewpoint is controlled to change based on the user operation.

本実施形態では、視点操作モードにおいてユーザ操作が行われない間は、車載撮影装置200の移動に伴って仮想視点が移動するように、視点操作UI350によって連続する複数の時点における仮想視点の位置が決定されるものとする。そして、ユーザ操作が行われることによって、仮想視点の位置が車載撮影装置200の位置から連続的に変化するものとする。これにより、出力画像が仮想視点画像に切り替わった後に視聴者が車両230を見失わずに済む。ただしこれに限らず、視点操作モードにおいてユーザ操作が行われない間は仮想視点が移動しないように制御されてもよい。 In the present embodiment, the position of the virtual viewpoint at a plurality of consecutive time points is determined by the viewpoint operation UI 350 so that the virtual viewpoint moves with the movement of the in-vehicle photographing device 200 while the user operation is not performed in the viewpoint operation mode. It shall be decided. Then, it is assumed that the position of the virtual viewpoint is continuously changed from the position of the in-vehicle photographing apparatus 200 by the user operation. As a result, the viewer does not lose sight of the vehicle 230 after the output image is switched to the virtual viewpoint image. However, the present invention is not limited to this, and the virtual viewpoint may be controlled so as not to move while the user operation is not performed in the viewpoint operation mode.

次に図16の処理について説明する。S801において、視点操作UI350は、ユーザによるモード切り替え操作を受け付けて、仮想視点の制御に関するモードを視点追従モードに設定する。S802において、視点操作UI350は、画像生成装置340から図10のS612において出力された車載撮影装置200のキャリブレーション情報を取得し、視点記憶部3505へキャリブレーション情報を格納する。 Next, the process of FIG. 16 will be described. In S801, the viewpoint operation UI 350 accepts a mode switching operation by the user and sets the mode related to the control of the virtual viewpoint to the viewpoint tracking mode. In S802, the viewpoint operation UI 350 acquires the calibration information of the in-vehicle photographing apparatus 200 output in S612 of FIG. 10 from the image generation device 340, and stores the calibration information in the viewpoint storage unit 3505.

S803において、トラッキング部3503は、仮想視点の位置が車載撮影装置200の位置に近づくように、現在の仮想視点を示す視点情報と車載撮影装置200のキャリブレーション情報とに基づいて視点情報を更新する。S804において、視点操作UI350は、更新された視点情報を画像生成装置340へ出力する。画像生成装置340においては、この視点情報に基づいて仮想視点画像が生成される。図16に示す処理の例においては、仮想視点の位置が元の位置(例えばユーザによる操作に応じて指定された位置)から車載撮影装置200の位置へ連続的に変化するように視点情報が更新される。この更新処理の詳細については図17及び図18を用いて後述する。 In S803, the tracking unit 3503 updates the viewpoint information based on the viewpoint information indicating the current virtual viewpoint and the calibration information of the vehicle-mounted photographing device 200 so that the position of the virtual viewpoint approaches the position of the vehicle-mounted photographing device 200. .. In S804, the viewpoint operation UI 350 outputs the updated viewpoint information to the image generation device 340. In the image generation device 340, a virtual viewpoint image is generated based on this viewpoint information. In the processing example shown in FIG. 16, the viewpoint information is updated so that the position of the virtual viewpoint continuously changes from the original position (for example, the position designated according to the operation by the user) to the position of the in-vehicle photographing apparatus 200. Will be done. Details of this update process will be described later with reference to FIGS. 17 and 18.

S805において、視点操作UI350は、出力装置360から出力される画像を切り替えるか否かを判定する。例えば、仮想視点の位置と車載撮影装置200の位置との距離が所定値未満になっている場合、画像を切り替えるべきであると判定され、S806に進む。一方、仮想視点の位置と車載撮影装置200の位置との距離が所定値以上である、画像を切り替えるべきでないと判定され、S802に戻る。画像切り替えが行わない場合、S802からS804の処理が周期Vごとに実行される。なお、画像切り替えの判断基準は上記に限定されない。例えば、視点操作UI350は、仮想視点の位置を車載撮影装置200の位置との距離が所定値未満になったことをユーザに通知してもよい。そして視点操作UI350は、通知を受けたユーザが画像切り替えの指示を入力したことに応じて、画像を切り替えるべきであると判定してもよい。 In S805, the viewpoint operation UI 350 determines whether or not to switch the image output from the output device 360. For example, when the distance between the position of the virtual viewpoint and the position of the in-vehicle photographing device 200 is less than a predetermined value, it is determined that the image should be switched, and the process proceeds to S806. On the other hand, it is determined that the distance between the position of the virtual viewpoint and the position of the in-vehicle photographing apparatus 200 is equal to or greater than a predetermined value, and the image should not be switched, and the process returns to S802. When the image is not switched, the processes S802 to S804 are executed every cycle V. The criteria for determining image switching are not limited to the above. For example, the viewpoint operation UI 350 may notify the user that the distance between the position of the virtual viewpoint and the position of the vehicle-mounted photographing device 200 is less than a predetermined value. Then, the viewpoint operation UI 350 may determine that the image should be switched in response to the user who received the notification inputting the image switching instruction.

S806において、画像切り替え指示部3504は、出力装置360に対して、出力画像を仮想視点画像から車載撮影装置200の撮影画像へ切り替える指示を行う。この時点において、画像生成装置340により生成される仮想視点画像に対応する仮想視点の位置と車載撮影装置200の位置との距離は所定値未満になっている。そのため、出力装置360から出力される画像が車載撮影装置200の撮影画像から仮想視点画像に切り替わっても画像の構図が大きく変化することがなく、シームレスな画像切り替えが実現できる。S807において、視点操作UI350は、仮想視点の制御に関するモードを視点操作モードに設定する。 In S806, the image switching instruction unit 3504 instructs the output device 360 to switch the output image from the virtual viewpoint image to the captured image of the in-vehicle imaging device 200. At this point, the distance between the position of the virtual viewpoint corresponding to the virtual viewpoint image generated by the image generation device 340 and the position of the in-vehicle photographing device 200 is less than a predetermined value. Therefore, even if the image output from the output device 360 is switched from the image captured by the in-vehicle imaging device 200 to the virtual viewpoint image, the composition of the image does not change significantly, and seamless image switching can be realized. In S807, the viewpoint operation UI 350 sets the mode related to the control of the virtual viewpoint to the viewpoint operation mode.

ここで図17を用いて、仮想視点の位置を車載撮影装置200の位置に近づける制御について説明する。車載撮影装置200を搭載した車両230は高速で動いており、またユーザ操作により指定された仮想視点が車両230の近くにあるとは限らない。そこで、視点操作UI350は、仮想視点と車載撮影装置200との距離を1〜数秒かけて徐々に縮めて、出力画像を仮想視点画像から撮影画像へ切り替えても違和感が小さいタイミングで画像の切り替えを指示する。トラッキング部3503は、このように仮想視点が徐々に移動するように、各フレームにおける視点情報を算出する。 Here, with reference to FIG. 17, the control for bringing the position of the virtual viewpoint closer to the position of the in-vehicle photographing apparatus 200 will be described. The vehicle 230 equipped with the in-vehicle photographing device 200 is moving at high speed, and the virtual viewpoint designated by the user operation is not always near the vehicle 230. Therefore, the viewpoint operation UI 350 gradually shortens the distance between the virtual viewpoint and the in-vehicle shooting device 200 over 1 to several seconds, and even if the output image is switched from the virtual viewpoint image to the shot image, the image is switched at a timing with little discomfort. Instruct. The tracking unit 3503 calculates the viewpoint information in each frame so that the virtual viewpoint gradually moves in this way.

図17は、出力画像を仮想視点画像から車載撮影装置200の撮影画像へ切り替える前の仮想視点の制御に応じた、車載撮影装置200と仮想視点との距離の時間変化の例を示す。横軸は時間を表し、縦軸は車載撮影装置200と仮想視点の距離を表す。視点操作モードから視点追従モードに切り替わった時点の車載撮影装置200と仮想視点との間の初期距離を「a」とし、切り替え時に違和感が小さくなるような仮想視点と車載撮影装置200との距離を「b」とする。また、仮想視点と車載撮影装置200との距離が「b」になるまでに要する期間を「c」とする。画像切り替え指示部3504は、仮想視点と車載撮影装置200との距離が「b」まで縮まった時、つまりモード切り替え指示から期間「c」が経過した時に、切り替え指示を行う。切り替え判断の基準となる「b」と「c」は予め設定され、視点記憶部3505に格納されている。トラッキング部3503は、初期距離「a」を算出した上で、期間「c」の間に距離が「b」まで縮まるように仮想視点を更新する。例えば、仮想視点画像のフレームレートが60fpsで、「c」が2秒の場合、トラッキング部3503は、仮想視点の位置が60×2=120回更新されて距離「b」に到達するように、1回の更新における仮想視点の変更量を計算する。 FIG. 17 shows an example of the time change of the distance between the vehicle-mounted photographing device 200 and the virtual viewpoint according to the control of the virtual viewpoint before switching the output image from the virtual viewpoint image to the captured image of the vehicle-mounted photographing device 200. The horizontal axis represents time, and the vertical axis represents the distance between the in-vehicle imaging device 200 and the virtual viewpoint. The initial distance between the in-vehicle shooting device 200 and the virtual viewpoint at the time of switching from the viewpoint operation mode to the viewpoint tracking mode is set to "a", and the distance between the virtual viewpoint and the in-vehicle shooting device 200 so as to reduce discomfort at the time of switching is set. Let it be "b". Further, the period required for the distance between the virtual viewpoint and the in-vehicle photographing apparatus 200 to become "b" is defined as "c". The image switching instruction unit 3504 gives a switching instruction when the distance between the virtual viewpoint and the in-vehicle photographing device 200 is reduced to "b", that is, when the period "c" has elapsed from the mode switching instruction. “B” and “c”, which are the criteria for switching determination, are preset and stored in the viewpoint storage unit 3505. After calculating the initial distance "a", the tracking unit 3503 updates the virtual viewpoint so that the distance is shortened to "b" during the period "c". For example, when the frame rate of the virtual viewpoint image is 60 fps and “c” is 2 seconds, the tracking unit 3503 updates the position of the virtual viewpoint 60 × 2 = 120 times to reach the distance “b”. Calculate the amount of change in the virtual viewpoint in one update.

図18は、図16のS803におけるトラッキング部3503の処理の詳細なフローを示す。S901において、トラッキング部3503は、S802で取得された車載撮影装置200のキャリブレーション情報と、視点記憶部3505に記憶してある現在の視点情報から、現在の車載撮影装置200と仮想視点との距離を計算する。S902において、トラッキング部3503は、図16に示すフローにおいてS803の処理が一回目であるか否かを判断する。一回目の処理である場合はS903に進み、2回目以降の処理の場合はS904へ進む。S903において、トラッキング部3503は、仮想視点を車載撮影装置200に近づけるために、仮想視点を何回更新するかを計算する。 FIG. 18 shows a detailed flow of processing of the tracking unit 3503 in S803 of FIG. In S901, the tracking unit 3503 uses the calibration information of the vehicle-mounted image pickup device 200 acquired in S802 and the current viewpoint information stored in the viewpoint storage unit 3505 to determine the distance between the current vehicle-mounted image pickup device 200 and the virtual viewpoint. To calculate. In S902, the tracking unit 3503 determines whether or not the processing of S803 is the first time in the flow shown in FIG. In the case of the first processing, the process proceeds to S903, and in the case of the second and subsequent processing, the process proceeds to S904. In S903, the tracking unit 3503 calculates how many times the virtual viewpoint is updated in order to bring the virtual viewpoint closer to the in-vehicle photographing device 200.

S904において、トラッキング部3503は、S901で算出した距離と、視点記憶部3505に記憶されている更新カウントから、次の仮想視点を決定する。ここで更新カウントとは、出力画像の切り替えまでに仮想視点をあと何回更新するかを示す情報である。更新カウントはS903で算出された更新回数から始まり、仮想視点が更新されるたびにデクリメントされていく。S905において、トラッキング部3503は、更新回数カウントを1減らして視点記憶部3505に記憶する。 In S904, the tracking unit 3503 determines the next virtual viewpoint from the distance calculated in S901 and the update count stored in the viewpoint storage unit 3505. Here, the update count is information indicating how many more times the virtual viewpoint is updated before the output image is switched. The update count starts from the number of updates calculated in S903, and is decremented each time the virtual viewpoint is updated. In S905, the tracking unit 3503 reduces the update count by 1 and stores it in the viewpoint storage unit 3505.

図17及び図18を用いて説明したように、仮想視点の位置を車載撮影装置200の位置に徐々に近づけることにより、出力装置360から出力されている仮想視点画像が急激に変化することを抑制し、ユーザにとって見やすい画像コンテンツを提供できる。ただしこの例に限らず、視点操作UI350は、ユーザによるモード切り替えの操作に応じて、仮想視点の位置を車載撮影装置200の位置へ瞬間的に移動させてもよい。 As described with reference to FIGS. 17 and 18, by gradually moving the position of the virtual viewpoint closer to the position of the in-vehicle photographing apparatus 200, it is possible to suppress abrupt changes in the virtual viewpoint image output from the output device 360. However, it is possible to provide image content that is easy for the user to see. However, the present invention is not limited to this example, and the viewpoint operation UI 350 may instantaneously move the position of the virtual viewpoint to the position of the in-vehicle photographing device 200 according to the operation of mode switching by the user.

以上、画像処理システムの構成及び動作について説明した。なお、上記の説明では、仮想視点の位置が車載撮影装置200に応じた位置になるように制御してから出力画像の切り変えを行うことで、シームレスな画像切り替えを実現する方法について説明した。一方、仮想視点からの視線方向が車載撮影装置200に応じた方向(例えば車載撮影装置200の光軸方向と一致する方向)になるように制御してから出力画像の切り変えを行うことで、より視聴者の違和感が小さいシームレスな画像切り替えを実現できる。また、仮想視点画像と車載撮影装置200の撮影画像との画角、明るさ、及び色味などの要素の少なくとも何れかを近づけるように仮想視点画像に関するパラメータ又は車載撮影装置200の撮影に係るパラメータを制御してから出力画像の切り替えを行ってもよい。これにより、視聴者の違和感をより低減できる。 The configuration and operation of the image processing system have been described above. In the above description, a method of realizing seamless image switching by controlling the position of the virtual viewpoint to be a position corresponding to the in-vehicle photographing apparatus 200 and then switching the output image has been described. On the other hand, by controlling the line-of-sight direction from the virtual viewpoint to be the direction corresponding to the vehicle-mounted image pickup device 200 (for example, the direction corresponding to the optical axis direction of the vehicle-mounted image pickup device 200), the output image is switched. It is possible to realize seamless image switching with less discomfort to the viewer. Further, parameters related to the virtual viewpoint image or parameters related to shooting of the vehicle-mounted photographing device 200 so that at least one of the elements such as the angle of view, brightness, and color of the virtual viewpoint image and the captured image of the vehicle-mounted photographing device 200 are brought closer to each other. You may switch the output image after controlling. This makes it possible to further reduce the discomfort of the viewer.

[変形例]
ここで、車載撮影装置200の状態や撮影領域であるレース場130の状況に応じて仮想視点画像に関するパラメータを設定する例について説明する。本変形例においては、視点操作UI350が、図15に示した処理に代わって図19に示す処理を実行する。その他の処理内容や各装置の構成については、上述した実施形態と同様である。ただし、本変形例における視点操作UI350は、車載撮影装置200の焦点距離の情報及びISOやIRIS等の明るさに関する情報を取得する機能を有している。例えば、ユーザが車載撮影装置200の焦点距離や明るさの情報を視点操作UI350に入力してもよい。また、車載撮影装置200がこれらの情報を視点操作UI350へ送信してもよい。
[Modification example]
Here, an example of setting parameters related to the virtual viewpoint image according to the state of the in-vehicle photographing device 200 and the situation of the race field 130 which is the photographing area will be described. In this modification, the viewpoint operation UI 350 executes the process shown in FIG. 19 instead of the process shown in FIG. Other processing contents and the configuration of each device are the same as those in the above-described embodiment. However, the viewpoint operation UI 350 in this modification has a function of acquiring information on the focal length of the in-vehicle photographing apparatus 200 and information on brightness such as ISO and IRIS. For example, the user may input information on the focal length and brightness of the vehicle-mounted photographing device 200 into the viewpoint operation UI 350. Further, the vehicle-mounted photographing apparatus 200 may transmit such information to the viewpoint operation UI 350.

以下では図19の処理について説明する。S1001において、視点操作UI350は、仮想視点の制御に関するモードを視点追従モードに設定する。なお、撮影領域であるレース場130に複数の車両が存在する場合、視点操作UI350は、追従対象の車両を選択するユーザ操作を受け付け、選択された車両を追従対象のオブジェクトとして移行の処理を実行する。 The processing of FIG. 19 will be described below. In S1001, the viewpoint operation UI 350 sets the mode related to the control of the virtual viewpoint to the viewpoint tracking mode. When there are a plurality of vehicles in the race field 130, which is the shooting area, the viewpoint operation UI 350 accepts the user operation for selecting the vehicle to be followed, and executes the migration process with the selected vehicle as the object to be followed. do.

S1002において、視点操作UI350は、画像生成装置340から車載撮影装置200のキャリブレーション情報を取得し、視点記憶部3505へキャリブレーション情報を格納する。なお、S1002において取得されるキャリブレーション情報には、選択された車両に設置された車載撮影装置200のキャリブレーション情報だけでなく、その他の車両に設置された車載撮影装置200のキャリブレーション情報も含まれる。ただし、レース場130内のすべての車両に関するキャリブレーション情報が取得されなくてもよく、例えば、選択された車両とその前方に位置する車両や周辺に位置する車両に関するキャリブレーション情報が取得されるようにしてもよい。 In S1002, the viewpoint operation UI 350 acquires the calibration information of the in-vehicle photographing device 200 from the image generation device 340, and stores the calibration information in the viewpoint storage unit 3505. The calibration information acquired in S1002 includes not only the calibration information of the in-vehicle photographing apparatus 200 installed in the selected vehicle but also the calibration information of the in-vehicle photographing apparatus 200 installed in other vehicles. Is done. However, it is not necessary to acquire the calibration information for all the vehicles in the race track 130. For example, the calibration information for the selected vehicle, the vehicle located in front of the selected vehicle, and the vehicles located in the vicinity thereof may be acquired. You may do it.

S1003において、視点操作UI350は、選択された車両に関する現在のキャリブレーション情報と過去のキャリブレーション情報とを比較することで、車載撮影装置200の振動状態を特定する。S1004において、視点操作UI350は、車載撮影装置200に所定以上の大きさの振動があるかを判定する。例えば、車載撮影装置200の鉛直方向(Z軸方向)の位置が所定の幅以上変動している場合に、振動があると判定される。振動があると判定された場合、S1005において、視点操作UI350が、仮想視点の画角が車載撮影装置200の画角より所定の値だけ広くなるように仮想視点に関するパラメータを変更する。これにより、振動している車載撮影装置200の撮影範囲が仮想視点に応じた視界に包含されるように仮想視点が設定され、見やすい仮想視点画像を生成できるようになる。 In S1003, the viewpoint operation UI 350 identifies the vibration state of the vehicle-mounted photographing apparatus 200 by comparing the current calibration information and the past calibration information regarding the selected vehicle. In S1004, the viewpoint operation UI 350 determines whether or not the in-vehicle photographing device 200 has a vibration of a predetermined magnitude or more. For example, when the position of the vehicle-mounted photographing apparatus 200 in the vertical direction (Z-axis direction) fluctuates by a predetermined width or more, it is determined that there is vibration. When it is determined that there is vibration, in S1005, the viewpoint operation UI 350 changes the parameter related to the virtual viewpoint so that the angle of view of the virtual viewpoint is wider than the angle of view of the in-vehicle photographing apparatus 200 by a predetermined value. As a result, the virtual viewpoint is set so that the shooting range of the vibrating in-vehicle shooting device 200 is included in the field of view according to the virtual viewpoint, and an easy-to-see virtual viewpoint image can be generated.

S1006において、視点操作UI350は、複数の車両に関するキャリブレーション情報に基づいて、選択された車両の前方の状態を特定する。S1007において、視点操作UI350は、選択された車両の前方に他の車両が存在するかを判定する。他の車両が存在すると判定された場合、S1008において、視点操作UI350が、仮想視点の位置を、車載撮影装置200の位置より所定の値だけ上方に変更する。これにより、仮想視点に応じた視界のうち選択された車両の前方の車両によって遮蔽される範囲が小さくなるように仮想視点が設定され、選択された車両の前方を確認しやすい仮想視点画像を生成できるようになる。すなわち、車載撮影装置200の位置に応じた位置として設定される仮想視点の位置は、撮影領域であるレース場130内の状況に応じて、車載撮影装置200の位置に一致する位置になることもあれば、車載撮影装置200の位置から所定距離離れた位置にもなる。 In S1006, the viewpoint operation UI 350 identifies the state in front of the selected vehicle based on the calibration information about the plurality of vehicles. In S1007, the viewpoint operation UI 350 determines whether another vehicle is present in front of the selected vehicle. When it is determined that another vehicle exists, in S1008, the viewpoint operation UI 350 changes the position of the virtual viewpoint upward by a predetermined value from the position of the in-vehicle photographing device 200. As a result, the virtual viewpoint is set so that the range shielded by the vehicle in front of the selected vehicle in the field of view according to the virtual viewpoint becomes small, and a virtual viewpoint image that makes it easy to confirm the front of the selected vehicle is generated. become able to. That is, the position of the virtual viewpoint set as the position corresponding to the position of the in-vehicle photographing device 200 may be the position corresponding to the position of the in-vehicle photographing device 200 depending on the situation in the race field 130 which is the photographing area. If there is, it will be a position separated from the position of the in-vehicle photographing apparatus 200 by a predetermined distance.

S1009において、視点操作UI350は、選択された車両に設置された車載撮影装置200の撮影に係るパラメータを特定する。特定されるパラメータには、例えば焦点距離や撮影画像の明るさに関するパラメータが含まれる。S1010において、視点操作UI350は、仮想視点に関するパラメータと車載撮影装置200の撮影に係るパラメータとの間に閾値以上の差があるかを判定する。パラメータに差があると判定された場合、S1011において、視点操作UI350は、仮想視点に関するパラメータを車載撮影装置200の撮影に係るパラメータに合わせて変更する。 In S1009, the viewpoint operation UI 350 specifies a parameter related to shooting of the vehicle-mounted photographing device 200 installed in the selected vehicle. The parameters specified include, for example, parameters related to the focal length and the brightness of the captured image. In S1010, the viewpoint operation UI 350 determines whether there is a difference of a threshold value or more between the parameter related to the virtual viewpoint and the parameter related to the shooting of the vehicle-mounted photographing device 200. When it is determined that there is a difference in the parameters, in S1011, the viewpoint operation UI 350 changes the parameters related to the virtual viewpoint according to the parameters related to the shooting of the in-vehicle shooting device 200.

S1012において、視点操作UI350は、上記の変更が反映された仮想視点を示す視点情報を画像生成装置340へ出力する。画像生成装置340においては、この視点情報に基づいて仮想視点画像が生成される。S1014において、視点操作UI350は、出力装置360から出力される画像を切り替えるか否かを判定する。例えば、ユーザから画像切り替えの指示が入力された場合、画像を切り替えるべきであると判定され、S1014に進む。一方、ユーザから画像切り替えの指示が入力されない場合、画像を切り替えるべきでないと判定され、S1002に戻る。画像切り替えが行わない場合、S1002からS1012の処理が周期Vごとに実行される。なお、画像切り替えの判断基準は上記に限定されない。S1015において、画像切り替え指示部3504は、出力装置360に対して、出力画像を車載撮影装置200の撮影画像から仮想視点画像へ切り替える指示を行う。S706において、視点操作UI350は、仮想視点の制御に関するモードを視点操作モードに設定する。 In S1012, the viewpoint operation UI 350 outputs the viewpoint information indicating the virtual viewpoint reflecting the above change to the image generation device 340. In the image generation device 340, a virtual viewpoint image is generated based on this viewpoint information. In S1014, the viewpoint operation UI 350 determines whether or not to switch the image output from the output device 360. For example, when an instruction for image switching is input from the user, it is determined that the image should be switched, and the process proceeds to S1014. On the other hand, if the user does not input an image switching instruction, it is determined that the image should not be switched, and the process returns to S1002. When the image is not switched, the processes of S1002 to S1012 are executed every cycle V. The criteria for determining image switching are not limited to the above. In S1015, the image switching instruction unit 3504 instructs the output device 360 to switch the output image from the captured image of the vehicle-mounted photographing device 200 to the virtual viewpoint image. In S706, the viewpoint operation UI 350 sets the mode related to the control of the virtual viewpoint to the viewpoint operation mode.

図19に示した上記の処理によれば、外光の変化などで車載撮影装置200による撮影画像の明るさが変更された場合や、車載撮影装置200の焦点距離が変化した場合でも、違和感が小さいシームレスな画像切り替えが実現できる。更に、車載撮影装置200の撮影画像に振動による画像ブレがあり見づらい場合や、注目対象の車両の前方に他の車両が密集して状況が分かりづらい場合に、視聴者は車載撮影装置200の撮影画像から見やすい仮想視点画像に適宜切り替えながら視聴できる。これにより、より満足度の高い視聴体験をユーザに提供することができる。 According to the above processing shown in FIG. 19, even when the brightness of the image captured by the in-vehicle photographing apparatus 200 is changed due to a change in external light or the like, or when the focal length of the in-vehicle photographing apparatus 200 is changed, a sense of incongruity is felt. Small seamless image switching can be realized. Further, when the captured image of the in-vehicle photographing device 200 is difficult to see due to image blurring due to vibration, or when other vehicles are crowded in front of the vehicle of interest and it is difficult to understand the situation, the viewer takes a picture of the in-vehicle photographing device 200. You can watch while switching from the image to the easy-to-see virtual viewpoint image as appropriate. This makes it possible to provide the user with a more satisfying viewing experience.

以上説明したように、本実施形態における視点操作UI350は、複数の撮影装置100によりそれぞれ異なる位置から撮影される撮影領域内を移動する車載撮影装置200の位置を、撮影装置100による撮影に基づくデータを用いて特定する。また視点操作UI350は、複数の撮影装置100により取得された複数の画像に基づいて生成される仮想視点画像に対応する仮想視点の位置を、特定された車載撮影装置200の位置に応じた位置に決定する。そして、このように決定された仮想視点に対応する仮想視点画像が画像生成装置340により生成され、仮想視点画像と車載撮影装置200により取得された撮影画像とを含む画像コンテンツが出力装置360により出力される。上記のような構成によれば、車載撮影装置200により取得された撮影画像と仮想視点画像とを含む画像コンテンツにおいて、当該撮影画像と仮想視点画像のそれぞれに対応する視点の関係を容易に認識可能となる。これにより、ユーザの満足度の高い画像コンテンツを提供することができる。 As described above, in the viewpoint operation UI 350 in the present embodiment, the position of the in-vehicle imaging device 200 that moves within the imaging region to be captured by the plurality of imaging devices 100 from different positions is obtained by data based on the imaging by the imaging device 100. Is specified using. Further, the viewpoint operation UI 350 sets the position of the virtual viewpoint corresponding to the virtual viewpoint image generated based on the plurality of images acquired by the plurality of shooting devices 100 to the position corresponding to the position of the specified in-vehicle shooting device 200. decide. Then, the virtual viewpoint image corresponding to the virtual viewpoint determined in this way is generated by the image generation device 340, and the image content including the virtual viewpoint image and the captured image acquired by the in-vehicle photographing device 200 is output by the output device 360. Will be done. According to the above configuration, in the image content including the captured image and the virtual viewpoint image acquired by the in-vehicle imaging device 200, the relationship between the viewpoints corresponding to the captured image and the virtual viewpoint image can be easily recognized. It becomes. As a result, it is possible to provide image content with high user satisfaction.

なお、車両の形状はレース中もタイヤ部分を除き基本的に変化しない。そのため、車両に付されたマーカ210と車載撮影装置200の位関係を事前に特定しておけば、レース中にマーカ210を検出することで車載撮影装置200の位置をある程度正確に特定できる。本実施形態では、このような特徴を利用することで、視聴者の満足度の高い画像コンテンツを提供する方法について説明した。ただし、車載撮影装置200の位置を特定する方法はこれに限定されない。例えば、撮影システム110により取得された撮影画像から、車載撮影装置200に付与されたマーカや車載撮影装置200の特徴点を検出することで、車載撮影装置200の位置が特定されてもよい。 The shape of the vehicle basically does not change during the race except for the tires. Therefore, if the positional relationship between the marker 210 attached to the vehicle and the in-vehicle photographing device 200 is specified in advance, the position of the in-vehicle photographing device 200 can be specified to some extent accurately by detecting the marker 210 during the race. In the present embodiment, a method of providing image content with high viewer satisfaction by utilizing such a feature has been described. However, the method for specifying the position of the in-vehicle photographing device 200 is not limited to this. For example, the position of the vehicle-mounted photographing device 200 may be specified by detecting a marker attached to the vehicle-mounted photographing apparatus 200 or a feature point of the vehicle-mounted photographing apparatus 200 from the captured image acquired by the photographing system 110.

なお、車載撮影装置200が設置される物体は上述した四輪の車両に限定されず、例えば二輪の車両であってもよい。また、撮影システム110による撮影の対象はモータースポーツに限定されず、その他の競技やイベントであってもよい。例えば、撮影システム110はサッカーやラグビーなどの試合が行われるフィールドを撮影し、画像生成装置340は撮影システム110により得られた撮影画像に基づいて仮想視点画像を生成してもよい。そして出力装置360は、フィールド上空を移動するドローンに設置された撮影装置の撮影画像と仮想視点画像とを含む画像コンテンツを出力してもよい。この場合に視点操作UI350は、仮想視点画像に対応する仮想視点の位置をドローンに設置された撮影装置の位置に応じて決定してもよい。 The object on which the in-vehicle photographing device 200 is installed is not limited to the above-mentioned four-wheeled vehicle, and may be, for example, a two-wheeled vehicle. Further, the target of shooting by the shooting system 110 is not limited to motor sports, and may be other competitions or events. For example, the photographing system 110 may photograph a field in which a game such as soccer or rugby is played, and the image generation device 340 may generate a virtual viewpoint image based on the photographed image obtained by the photographing system 110. Then, the output device 360 may output image content including a photographed image and a virtual viewpoint image of the photographing device installed in the drone moving over the field. In this case, the viewpoint operation UI 350 may determine the position of the virtual viewpoint corresponding to the virtual viewpoint image according to the position of the photographing device installed in the drone.

また例えば、人物や動物に装着された撮影装置の撮影画像と仮想視点画像とを含む画像コンテンツが生成される場合に、視点操作UI350は、仮想視点画像に対応する仮想視点の位置を人物や動物に装着された撮影装置の位置に応じて決定してもよい。このような撮影装置の位置は、例えば撮影装置が有するGPS等の位置センサからの情報に基づいて特定されてもよいし、人物や動物が移動する領域を撮影する他の撮影装置により取得された撮影画像から人物や動物を検出した結果に基づいて特定されてもよい。このような構成によっても、上述した実施形態と同様に、撮影画像と仮想視点画像のそれぞれの視点の関係を容易に認識可能な画像コンテンツを提供できる。 Further, for example, when image content including a photographed image of a photographing device attached to a person or an animal and a virtual viewpoint image is generated, the viewpoint operation UI 350 sets the position of the virtual viewpoint corresponding to the virtual viewpoint image to the person or animal. It may be determined according to the position of the photographing apparatus mounted on the. The position of such a photographing device may be specified based on information from a position sensor such as GPS possessed by the photographing device, or may be acquired by another photographing device that photographs an area in which a person or an animal moves. It may be specified based on the result of detecting a person or an animal from the captured image. Even with such a configuration, it is possible to provide image content in which the relationship between the viewpoints of the photographed image and the virtual viewpoint image can be easily recognized, as in the above-described embodiment.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC or the like) that realizes one or more functions. Further, the program may be recorded and provided on a recording medium readable by a computer.

110 撮影システム
200 車載撮影装置
320 制御装置
340 画像生成装置
360 出力装置
110 Imaging system 200 In-vehicle imaging device 320 Control device 340 Image generator 360 Output device

Claims (23)

生成対象の画像コンテンツに含まれる撮影画像を取得するための移動撮影装置であって、複数の撮影装置によりそれぞれ異なる位置から撮影される撮影領域内を移動する移動撮影装置の位置を、前記複数の撮影装置に含まれる撮影装置による撮影に基づくデータを用いて特定する特定手段と、
前記画像コンテンツに含まれる仮想視点画像であって前記複数の撮影装置により取得された複数の画像に基づいて生成される仮想視点画像に対応する仮想視点の位置を、前記特定手段により特定された前記移動撮影装置の位置に応じた位置に決定する決定手段と、を有することを特徴とする情報処理装置。
The position of the mobile photographing device for acquiring the captured image included in the image content to be generated and moving within the photographing area to be photographed from different positions by the plurality of photographing devices is set to the plurality of positions. Specific means to identify using the data based on the shooting by the shooting device included in the shooting device,
The position of the virtual viewpoint corresponding to the virtual viewpoint image included in the image content and generated based on the plurality of images acquired by the plurality of photographing devices is specified by the specific means. An information processing apparatus comprising: a determination means for determining a position according to a position of a mobile photographing apparatus.
前記移動撮影装置は、前記撮影領域内を移動する物体に設置されたカメラであることを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the mobile photographing device is a camera installed on an object moving in the photographing area. 前記特定手段は、前記物体における基準位置に対する前記移動撮影装置の相対位置を示す情報と、前記撮影に基づくデータとして取得された前記物体の位置を示すデータとを用いて、前記移動撮影装置の位置を特定することを特徴とする請求項2に記載の情報処理装置。 The specific means uses information indicating a relative position of the moving photographing device with respect to a reference position in the object and data indicating the position of the object acquired as data based on the photographing, and the position of the moving photographing device. The information processing apparatus according to claim 2, wherein the information processing apparatus is specified. 前記移動撮影装置の相対位置を示す前記情報は、前記物体における基準位置を原点とする第1の座標系における前記移動撮影装置の位置の座標を示す情報であり、
前記物体の位置を示す前記データは、前記撮影領域における基準位置を原点とする第2の座標系における前記物体の位置の座標を示すデータであり、
前記特定手段は、前記第1の座標系における前記移動撮影装置の位置の座標を前記第2の座標系に応じて変換することで、前記移動撮影装置の位置を特定することを特徴とする請求項3に記載の情報処理装置。
The information indicating the relative position of the mobile photographing device is information indicating the coordinates of the position of the moving photographing device in the first coordinate system having the reference position in the object as the origin.
The data indicating the position of the object is data indicating the coordinates of the position of the object in the second coordinate system having the reference position in the photographing region as the origin.
The specific means is characterized in that the position of the mobile photographing device is specified by converting the coordinates of the position of the moving photographing device in the first coordinate system according to the second coordinate system. Item 3. The information processing apparatus according to item 3.
前記特定手段は、前記撮影に基づくデータとして取得された前記物体の三次元形状を表すデータを用いて、前記移動撮影装置の位置を特定することを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the specifying means specifies the position of the mobile photographing apparatus by using the data representing the three-dimensional shape of the object acquired as the data based on the photographing. .. 前記撮影領域内を移動する複数の物体のうち特定の物体を、前記複数の撮影装置に含まれる撮影装置による撮影に基づくデータを用いて識別する識別手段を有し、
前記特定手段は、前記識別手段により識別された前記特定の物体に設置された前記移動撮影装置の位置を特定することを特徴とする請求項2乃至5の何れか1項に記載の情報処理装置。
It has an identification means for identifying a specific object among a plurality of objects moving in the photographing area by using data based on photography by the photographing apparatus included in the plurality of photographing devices.
The information processing apparatus according to any one of claims 2 to 5, wherein the specific means specifies the position of the mobile photographing device installed on the specific object identified by the identification means. ..
前記撮影領域内を移動する物体は、車両又はドローンであることを特徴とする請求項2乃至6の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 2 to 6, wherein the object moving in the photographing area is a vehicle or a drone. 前記決定手段は、前記仮想視点の位置を、前記移動撮影装置の位置に一致する位置に決定することを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the determination means determines the position of the virtual viewpoint at a position corresponding to the position of the moving photographing device. 前記決定手段は、前記移動撮影装置の位置に対する前記仮想視点の位置を、前記撮影領域内の状況に応じて決定することを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。 The information processing according to any one of claims 1 to 7, wherein the determination means determines the position of the virtual viewpoint with respect to the position of the mobile photographing apparatus according to a situation in the photographing area. Device. 前記決定手段は、前記移動撮影装置の移動に伴って前記仮想視点が移動するように、連続する複数の時点における前記仮想視点の位置を決定することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。 Any of claims 1 to 9, wherein the determination means determines the position of the virtual viewpoint at a plurality of consecutive time points so that the virtual viewpoint moves with the movement of the moving photographing device. The information processing apparatus according to item 1. 前記仮想視点の位置がユーザによる操作に応じて指定された位置から前記決定手段により決定された位置へ連続的に変化するように制御する制御手段を有することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。 Claims 1 to 10 include a control means for controlling the position of the virtual viewpoint so as to continuously change from a position designated according to an operation by a user to a position determined by the determination means. The information processing apparatus according to any one of the following items. 前記仮想視点の位置が前記決定手段により決定された位置からユーザ操作に応じて連続的に変化するように制御する制御手段を有することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。 The invention according to any one of claims 1 to 10, further comprising a control means for controlling the position of the virtual viewpoint so as to continuously change from the position determined by the determination means according to a user operation. Information processing equipment. 前記画像コンテンツにおいては、前記決定手段により決定された位置の仮想視点に対応する仮想視点画像と前記移動撮影装置により取得された撮影画像とが切り替わって表示されることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。 Claims 1 to 1, characterized in that, in the image content, a virtual viewpoint image corresponding to a virtual viewpoint at a position determined by the determination means and a photographed image acquired by the moving photographing device are switched and displayed. The information processing apparatus according to any one of 12. 前記画像コンテンツにおいては、前記決定手段により決定された位置の仮想視点に対応する仮想視点画像と前記移動撮影装置により取得された撮影画像とが同時に表示されることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。 Claims 1 to 12 are characterized in that, in the image content, a virtual viewpoint image corresponding to a virtual viewpoint at a position determined by the determination means and a photographed image acquired by the moving photographing device are simultaneously displayed. The information processing apparatus according to any one of the above items. 前記特定手段はさらに、前記移動撮影装置の光軸方向を、前記複数の撮影装置に含まれる撮影装置による撮影に基づくデータを用いて特定し、
前記決定手段はさらに、前記仮想視点画像に対応する前記仮想視点からの視線方向を、前記特定手段により特定された前記移動撮影装置の光軸方向に応じた方向に決定することを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。
The specifying means further identifies the optical axis direction of the mobile photographing device by using data based on photography by the photographing devices included in the plurality of photographing devices.
The determination means is further characterized in that the line-of-sight direction from the virtual viewpoint corresponding to the virtual viewpoint image is determined in a direction corresponding to the optical axis direction of the moving photographing device specified by the specific means. Item 6. The information processing apparatus according to any one of Items 1 to 14.
前記仮想視点画像に対応する画角及び明るさの少なくとも何れかに関するパラメータを、前記移動撮影装置による撮影に係るパラメータに基づいて設定する設定手段を有することを特徴とする請求項1乃至15の何れか1項に記載の情報処理装置。 Any of claims 1 to 15, further comprising a setting means for setting parameters relating to at least one of the angle of view and brightness corresponding to the virtual viewpoint image based on the parameters related to shooting by the moving shooting device. The information processing device according to item 1. 前記仮想視点画像に対応する画角に関するパラメータを、前記移動撮影装置の振動状態に基づいて設定する設定手段を有することを特徴とする請求項1乃至15の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 15, further comprising a setting means for setting parameters related to an angle of view corresponding to the virtual viewpoint image based on a vibration state of the moving photographing device. .. 前記決定手段により決定された前記仮想視点の位置に対応する前記仮想視点画像を、前記複数の撮影装置により取得された前記複数の画像に基づいて生成する生成手段を有することを特徴とする請求項1乃至17の何れか1項に記載の情報処理装置。 The claim is characterized by having a generation means for generating the virtual viewpoint image corresponding to the position of the virtual viewpoint determined by the determination means based on the plurality of images acquired by the plurality of photographing devices. The information processing apparatus according to any one of 1 to 17. 前記移動撮影装置により取得された前記撮影画像と前記生成手段により取得された前記仮想視点画像とを用いて生成される前記画像コンテンツを出力する出力手段を有することを特徴とする請求項18に記載の情報処理装置。 18. The invention according to claim 18, further comprising an output means for outputting the image content generated by using the photographed image acquired by the mobile photographing apparatus and the virtual viewpoint image acquired by the generating means. Information processing equipment. 生成対象の画像コンテンツに含まれる撮影画像を取得するための移動撮影装置であって、複数の撮影装置によりそれぞれ異なる位置から撮影される撮影領域内を移動する移動撮影装置の位置を、前記複数の撮影装置に含まれる撮影装置による撮影に基づくデータを用いて特定する特定工程と、
前記画像コンテンツに含まれる仮想視点画像であって前記複数の撮影装置により取得された複数の画像に基づいて生成される仮想視点画像に対応する仮想視点の位置を、前記特定工程において特定された前記移動撮影装置の位置に応じた位置に決定する決定工程と、を有することを特徴とする情報処理方法。
The position of the mobile photographing device for acquiring the captured image included in the image content to be generated and moving within the photographing area to be photographed from different positions by the plurality of photographing devices is set to the plurality of positions. A specific process to specify using data based on shooting by the shooting device included in the shooting device, and
The position of the virtual viewpoint corresponding to the virtual viewpoint image included in the image content and generated based on the plurality of images acquired by the plurality of photographing devices is specified in the specific step. An information processing method comprising: a determination step of determining a position according to a position of a mobile photographing apparatus.
前記移動撮影装置は、前記撮影領域内を移動する物体に設置されたカメラであることを特徴とする請求項20に記載の情報処理方法。 The information processing method according to claim 20, wherein the mobile photographing device is a camera installed on an object moving in the photographing area. 前記特定工程においては、前記車両における基準位置に対する前記移動撮影装置の相対位置を示す情報と、前記撮影に基づくデータとして取得された前記車両の位置を示すデータとを用いて、前記移動撮影装置の位置が特定されることを特徴とする請求項21に記載の情報処理方法。 In the specific step, the information indicating the relative position of the mobile photographing device with respect to the reference position in the vehicle and the data indicating the position of the vehicle acquired as the data based on the photographing are used to obtain the moving photographing device. The information processing method according to claim 21, wherein the position is specified. コンピュータを、請求項1乃至19の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the information processing apparatus according to any one of claims 1 to 19.
JP2020084709A 2020-05-13 2020-05-13 Information processing apparatus, information processing method, and program Pending JP2021179800A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020084709A JP2021179800A (en) 2020-05-13 2020-05-13 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020084709A JP2021179800A (en) 2020-05-13 2020-05-13 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021179800A true JP2021179800A (en) 2021-11-18

Family

ID=78511529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020084709A Pending JP2021179800A (en) 2020-05-13 2020-05-13 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021179800A (en)

Similar Documents

Publication Publication Date Title
JP6329343B2 (en) Image processing system, image processing apparatus, image processing program, and image processing method
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP5865388B2 (en) Image generating apparatus and image generating method
KR20150050172A (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
US10277890B2 (en) System and method for capturing and viewing panoramic images having motion parallax depth perception without image stitching
WO2013069047A1 (en) Image generation device, and image generation method
JP5861499B2 (en) Movie presentation device
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP5927856B2 (en) Image processing apparatus, image processing method, and program
KR20180130504A (en) Information processing apparatus, information processing method, program
WO2020084951A1 (en) Image processing device and image processing method
CN112424728A (en) Information processing apparatus, information processing method, and program
JP2006310936A (en) System for generating video image viewed at optional viewpoint
JP2020205549A (en) Video processing apparatus, video processing method, and program
KR100926231B1 (en) Spatial information construction system and method using spherical video images
JP7423251B2 (en) Information processing device, information processing method, and program
JPH0795621A (en) Image recording and reproducing device
JP2022016929A (en) Information processing device, information processing method, and program
JP2021179800A (en) Information processing apparatus, information processing method, and program
JP7080614B2 (en) Image processing equipment, image processing system, image processing method, and program
JP2020102687A (en) Information processing apparatus, image processing apparatus, image processing method, and program
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
WO2021079636A1 (en) Display control device, display control method and recording medium
KR102298047B1 (en) Method of recording digital contents and generating 3D images and apparatus using the same
JP2022182119A (en) Image processing apparatus, control method thereof, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200616