JP2020182079A - Information processing device, information processing system, information processing method, and program - Google Patents

Information processing device, information processing system, information processing method, and program Download PDF

Info

Publication number
JP2020182079A
JP2020182079A JP2019083242A JP2019083242A JP2020182079A JP 2020182079 A JP2020182079 A JP 2020182079A JP 2019083242 A JP2019083242 A JP 2019083242A JP 2019083242 A JP2019083242 A JP 2019083242A JP 2020182079 A JP2020182079 A JP 2020182079A
Authority
JP
Japan
Prior art keywords
region
image
information processing
imaging
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019083242A
Other languages
Japanese (ja)
Inventor
拓人 川原
Takuto Kawahara
拓人 川原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019083242A priority Critical patent/JP2020182079A/en
Priority to US16/847,966 priority patent/US11195321B2/en
Publication of JP2020182079A publication Critical patent/JP2020182079A/en
Pending legal-status Critical Current

Links

Images

Abstract

To enable a plurality of imaging apparatuses to identify positions of the imaging apparatuses in a common coordinate system even if the imaging apparatuses are located on both sides of a boundary surface of a plurality of regions filled with substances having different refractive indexes.SOLUTION: A calibration unit 500 detects an airborne marker 810a from an image acquired by a camera 110a located above the water surface of a plurality of cameras 110 for capturing an imaging area containing at least part of the water surface, which is the boundary between air and water. The calibration unit 500 detects an underwater marker 810w from an image acquired by a camera 110w located below the water surface. The calibration unit 500 then identifies positions of the multiple cameras 110 in a common coordinate system based on the results of the detections and the positional information indicating the positions or positional relationships of the airborne marker 810a and the underwater marker 810w.SELECTED DRAWING: Figure 5

Description

本発明は、撮像画像に基づいて撮像装置の位置を特定する技術に関するものである。 The present invention relates to a technique for specifying the position of an imaging device based on an captured image.

複数の撮像装置を異なる位置に設置して同期撮像し、当該撮像により得られた複数の撮像画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。具体的には、複数の撮像画像に基づいて、撮像画像に含まれる被写体の3次元形状データを生成し、仮想視点の位置及び向きに基づくレンダリング処理を行うことにより、仮想視点画像が生成される。 There is a technique in which a plurality of imaging devices are installed at different positions to perform synchronous imaging, and a virtual viewpoint image in which the viewpoint can be arbitrarily changed is generated by using the plurality of captured images obtained by the imaging. Specifically, a virtual viewpoint image is generated by generating three-dimensional shape data of a subject included in the captured image based on a plurality of captured images and performing rendering processing based on the position and orientation of the virtual viewpoint. ..

複数の撮像装置により取得された撮像画像に基づいて被写体の3次元形状データを生成するためには、共通の座標系における各撮像装置の位置を特定する必要がある。特許文献1には、同じマーカを複数の撮像装置により撮像することで得られた複数の画像を用いて、共通の座標系における各撮像装置の位置を特定することが開示されている。 In order to generate three-dimensional shape data of a subject based on captured images acquired by a plurality of imaging devices, it is necessary to specify the position of each imaging device in a common coordinate system. Patent Document 1 discloses that the position of each imaging device in a common coordinate system is specified by using a plurality of images obtained by imaging the same marker with a plurality of imaging devices.

特開2018−207252号公報JP-A-2018-207252

特許文献1に記載の方法では、複数の撮像装置が、それぞれ屈折率が異なる物質により満たされた複数の領域の境界面に対して両側に位置する場合に、当該複数の撮像装置の位置の特定結果に誤りが生じる虞がある。例えば、アーティスティックスイミングなどの水上競技を撮像対象として仮想視点画像を生成する場合には、水面より上と水面より下にそれぞれ撮像装置を設置することが考えられる。空気中と水中とでは光の屈折率が異なるため水面で光の反射が生じたり、水面の揺らぎが生じたりすることにより、撮像装置から見て水面より奥に位置するマーカを撮像画像から安定的に検出できない。そのため、水中にのみマーカを設置して撮像した画像を用いた場合には、水面より上の撮像装置の位置の特定結果に誤りが生じうる。同様に、空気中にのみマーカを設置して撮像した画像を用いた場合には、水面より下の撮像装置の位置の特定結果に誤りが生じうる。 In the method described in Patent Document 1, when a plurality of image pickup devices are located on both sides of a boundary surface of a plurality of regions filled with substances having different refractive indexes, the positions of the plurality of image pickup devices are specified. There is a risk of error in the result. For example, when a virtual viewpoint image is generated for aquatics such as artistic swimming, it is conceivable to install imaging devices above and below the water surface, respectively. Since the refractive index of light differs between air and water, light is reflected on the water surface and fluctuations occur on the water surface, so that markers located deeper than the water surface when viewed from the image pickup device are stable from the captured image. Cannot be detected. Therefore, when the image captured by installing the marker only in water is used, an error may occur in the result of specifying the position of the imaging device above the water surface. Similarly, when an image captured by installing a marker only in the air is used, an error may occur in the result of specifying the position of the image pickup device below the water surface.

本発明は上記の課題に鑑み、複数の撮像装置が、それぞれ屈折率が異なる物質により満たされた複数の領域の境界面に対して両側に位置する場合であっても、共通の座標系における当該複数の撮像装置の位置を特定できるようにすることを目的とする。 In view of the above problems, the present invention relates to the same coordinate system even when a plurality of imaging devices are located on both sides of a boundary surface of a plurality of regions filled with substances having different refractive indexes. The purpose is to be able to identify the positions of a plurality of imaging devices.

上記の課題を解決するため、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、第1領域と、前記第1領域を満たす物質とは屈折率が異なる物質で満たされた第2領域との境界面を少なくとも一部含む撮像領域を撮像する複数の撮像装置のうち、前記境界面に対して前記第1領域側に位置する撮像装置により取得された画像から、前記第1領域内の所定の第1オブジェクトを検出する第1検出手段と、前記複数の撮像装置のうち前記境界面に対して前記第2領域側に位置する撮像装置により取得された画像から、前記第2領域内の所定の第2オブジェクトを検出する第2検出手段と、前記第1オブジェクトと前記第2オブジェクトの位置、及び、前記第1オブジェクトと前記第2オブジェクトの位置関係の、少なくとも何れかを示す位置情報を取得する取得手段と、前記第1検出手段による検出結果と前記第2検出手段による検出結果と前記取得手段により取得された位置情報とに基づいて、共通の座標系における前記複数の撮像装置の位置を特定する特定手段とを有する。 In order to solve the above problems, the information processing apparatus according to the present invention has, for example, the following configuration. That is, among a plurality of imaging devices that image an imaging region including at least a part of a boundary surface between the first region and the second region filled with a substance having a refractive index different from that of the substance satisfying the first region. The first detection means for detecting a predetermined first object in the first region from the image acquired by the image pickup device located on the first region side with respect to the boundary surface, and the plurality of image pickup devices. A second detection means for detecting a predetermined second object in the second region from an image acquired by an imaging device located on the second region side with respect to the boundary surface, the first object, and the second object. An acquisition means for acquiring at least one of the position of an object and the positional relationship between the first object and the second object, a detection result by the first detection means, and detection by the second detection means. It has a specific means for identifying the positions of the plurality of image pickup devices in a common coordinate system based on the result and the position information acquired by the acquisition means.

本発明によれば、複数の撮像装置が、それぞれ屈折率が異なる物質により満たされた複数の領域の境界面に対して両側に位置する場合であっても、共通の座標系における当該複数の撮像装置の位置を特定できる。 According to the present invention, even when a plurality of imaging devices are located on both sides of a boundary surface of a plurality of regions filled with substances having different refractive indexes, the plurality of imaging devices in a common coordinate system are used. The position of the device can be specified.

カメラシステムの設置例を示す図である。It is a figure which shows the installation example of a camera system. 情報処理システムの構成例を示す図である。It is a figure which shows the configuration example of an information processing system. 装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the apparatus. キャリブレーションに係る処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which concerns on calibration. マーカの設置例を示す図である。It is a figure which shows the installation example of a marker. マーカの設置例を示す図である。It is a figure which shows the installation example of a marker. マーカの設置例を示す図である。It is a figure which shows the installation example of a marker.

以下、図面を参照して本発明の実施形態を詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.

[情報処理システムの構成]
図1および図2を用いて、情報処理システム10の構成例について説明する。情報処理システム10は、複数の撮像装置による撮像に基づく複数の画像(多視点画像)と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
[Information processing system configuration]
A configuration example of the information processing system 10 will be described with reference to FIGS. 1 and 2. The information processing system 10 generates a virtual viewpoint image representing a view from a designated virtual viewpoint based on a plurality of images (multi-viewpoint images) based on images taken by a plurality of imaging devices and a designated virtual viewpoint. It is a system. The virtual viewpoint image in the present embodiment is also called a free viewpoint image, but is not limited to an image corresponding to a viewpoint freely (arbitrarily) specified by the user, for example, a viewpoint selected by the user from a plurality of candidates. Corresponding images and the like are also included in the virtual viewpoint image. Further, in the present embodiment, the case where the virtual viewpoint is specified by the user operation will be mainly described, but the virtual viewpoint may be automatically specified based on the result of image analysis or the like. Further, in the present embodiment, the case where the virtual viewpoint image is a moving image will be mainly described, but the virtual viewpoint image may be a still image.

情報処理システム10は、撮像領域を複数の方向から撮像する撮像装置としての複数のカメラを有する。本実施形態では、撮像対象となる撮像領域が、アーティスティックスイミングや競泳、水球などの水上競技が行われるプールの近傍であるものとする。複数のカメラは、このような撮像領域を取り囲むようにそれぞれ異なる位置に設置され、同期して撮像を行う。また、情報処理システム10に含まれる複数のカメラは、設置場所が異なる複数の撮像装置群に分類される。図1に示す例において、空気中カメラシステム100aは水面より上側、具体的にはプール周囲の空気中に設置された複数のカメラ110aを有する撮像装置群であり、主に水上の空気中を撮像する。一方、水中カメラシステム100wは水面より下側、具体的にはプールの隅の水中に設置された複数のカメラ110wを有する撮像装置群であり、主に水中を撮像する。ただし、空気中のカメラ100aと水中のカメラ100wのいずれも、空気中の領域と水中の領域との境界面であるプールの水面を少なくとも一部含む撮像領域を撮像する。 The information processing system 10 has a plurality of cameras as an imaging device that images an imaging region from a plurality of directions. In the present embodiment, it is assumed that the imaging region to be imaged is in the vicinity of a pool where aquatics such as artistic swimming, swimming, and water polo are performed. A plurality of cameras are installed at different positions so as to surround such an imaging area, and perform imaging in synchronization. Further, the plurality of cameras included in the information processing system 10 are classified into a plurality of imaging device groups having different installation locations. In the example shown in FIG. 1, the in-air camera system 100a is a group of image pickup devices having a plurality of cameras 110a installed above the water surface, specifically in the air around the pool, and mainly captures the air in the water. To do. On the other hand, the underwater camera system 100w is a group of image pickup devices having a plurality of cameras 110w installed in the water below the water surface, specifically in the corner of the pool, and mainly images the water. However, both the camera 100a in the air and the camera 100w in the water image an imaging region including at least a part of the water surface of the pool, which is the boundary surface between the region in the air and the region in the water.

なお、複数のカメラは撮像領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮像領域の一部の方向にのみ設置されていてもよい。また、図1ではカメラ110−1a、110−2a、110−1w、及び110−2wを示しており、図2ではこれに加えてカメラ110−3a及び110−3wを示しているが、カメラの数はこれに限定されない。例えば、空気中カメラシステム100aと水中カメラシステム100wとがそれぞれ30台程度のカメラを有していてもよい。また、撮像対象は上記に限定されるものではなく、撮像対象に応じてカメラの数が異なっていてもよい。また、望遠カメラと広角カメラなど機能が異なるカメラが設置されていてもよい。 It should be noted that the plurality of cameras may not be installed over the entire circumference of the imaging area, and may be installed only in a part of the imaging area depending on the limitation of the installation location or the like. Further, FIG. 1 shows cameras 110-1a, 110-2a, 110-1w, and 110-2w, and FIG. 2 shows cameras 110-3a and 110-3w in addition to the cameras 110-1a, 110-2a, 110-1w, and 110-2w. The number is not limited to this. For example, the air camera system 100a and the underwater camera system 100w may each have about 30 cameras. Further, the imaging target is not limited to the above, and the number of cameras may differ depending on the imaging target. Further, cameras having different functions such as a telephoto camera and a wide-angle camera may be installed.

本明細書では、符号末尾にアルファベットのaが付けられた構成要素は空気中に存在するものとし、符号末尾にアルファベットのwが付けられた構成要素は水中に存在するものとする。また、空気中カメラシステム100a内のカメラを区別しない場合にはカメラ110aと表記し、水中カメラシステム100w内のカメラを区別しない場合にはカメラ110wと表記し、空気中か水中かも区別しない場合には単にカメラ110と表記する。空気中カメラシステム100aと水中カメラシステム100wのその他の構成要素についても、同様に符号を表記する。 In the present specification, it is assumed that the component having the alphabet a at the end of the code exists in the air, and the component having the letter w at the end of the code exists in the water. Further, when the cameras in the aerial camera system 100a are not distinguished, the camera is described as 110a, when the cameras in the underwater camera system 100w are not distinguished, the camera 110w is described, and when the air or underwater is not distinguished. Is simply referred to as camera 110. The same reference numerals are given to the other components of the air camera system 100a and the underwater camera system 100w.

図1および図2に示すように、空気中カメラシステム100aが有する複数のカメラ110aは、それぞれに対応するカメラ制御部210aを介してデイジーチェイン接続される。水中カメラシステム100wが有する複数のカメラ110wも同様に、それぞれに対応するカメラ制御部210wを介してデイジーチェイン接続される。なお、空気中カメラシステム100aと水中カメラシステム100wとが分離して接続されることは必須ではなく、空気中カメラシステム100aと水中カメラシステム100wとが直列に接続されていてもよい。また、デイジーチェイン接続は必須ではなく、複数のカメラ制御部210がスター型などのネットワークトポロジーで接続されていてもよい。 As shown in FIGS. 1 and 2, a plurality of cameras 110a included in the air camera system 100a are daisy-chained via the corresponding camera control units 210a. Similarly, the plurality of cameras 110w included in the underwater camera system 100w are also daisy-chained via the corresponding camera control units 210w. It is not essential that the underwater camera system 100a and the underwater camera system 100w are connected separately, and the underwater camera system 100a and the underwater camera system 100w may be connected in series. Further, the daisy chain connection is not essential, and a plurality of camera control units 210 may be connected by a network topology such as a star type.

空気中カメラシステム100aが有する複数のカメラ110aは、プールの水上を撮像するために適した位置及び向きで設置され、例えば水面近傍などの注目位置を所定の画質で撮像できるように焦点距離とフォーカスが設定される。水中カメラシステム100wのカメラ110wも同様に、プールの水中を撮像するために適した位置及び向きで設置され、水面近傍などの注目位置を所定の画質で撮像できるように焦点距離とフォーカスが設定される。本実施形態では、水中カメラシステム100wが有するカメラ110wは防水機能を有しており、水中に直接設置されているものとする。ただしこれに限らず、カメラ110wは、水中に設置された防水性を担保するハウジング等に収容されていてもよい。また、プールが透明なアクリルガラス等でできており、カメラ110wはプールの外側で且つ水面より下側から水中を撮像できるように設置されていてもよい。 The plurality of cameras 110a included in the aerial camera system 100a are installed at positions and orientations suitable for photographing the water surface of the pool, and the focal length and focus can be obtained so that the attention position such as the vicinity of the water surface can be imaged with a predetermined image quality. Is set. Similarly, the camera 110w of the underwater camera system 100w is installed at a position and orientation suitable for photographing the underwater of the pool, and the focal length and focus are set so that the attention position such as the vicinity of the water surface can be imaged with a predetermined image quality. To In the present embodiment, it is assumed that the camera 110w included in the underwater camera system 100w has a waterproof function and is directly installed underwater. However, the present invention is not limited to this, and the camera 110w may be housed in a housing or the like that is installed underwater to ensure waterproofness. Further, the pool may be made of transparent acrylic glass or the like, and the camera 110w may be installed so that the water can be imaged from the outside of the pool and below the water surface.

図2に示すように、空気中カメラシステム100aは、カメラ110aと、カメラ110aに接続されたカメラ制御部210aを複数有する。そして各カメラ制御部210aは、同期クライアント211aと画像送信部212aとを有する。空気中カメラシステム100aが有する複数のカメラ制御部210aはデイジーチェイン接続され、最も端のカメラ制御部210−1aは時刻サーバ300およびデータ保存部400に接続される。水中カメラシステム100wの構成も同様である。 As shown in FIG. 2, the in-air camera system 100a has a camera 110a and a plurality of camera control units 210a connected to the camera 110a. Each camera control unit 210a has a synchronization client 211a and an image transmission unit 212a. The plurality of camera control units 210a included in the aerial camera system 100a are daisy-chained, and the endmost camera control unit 210-1a is connected to the time server 300 and the data storage unit 400. The configuration of the underwater camera system 100w is also the same.

各カメラ制御部210の同期クライアント211は、時刻サーバ300および他のカメラ制御部210の同期クライアント211と通信して同期処理を行う。同期プロトコルとしては、PTP(Precision Time Protocol)を使用するものとするが、この方式に限定されるものではない。各同期クライアント211が同期処理の結果に応じてGenLock信号とTimecodeをカメラ110に対して出力することで、複数のカメラ110の同期が実現される。そして、複数のカメラ110は同期撮像を行い、各カメラ110は取得した撮像画像と撮像時刻を示すTimecodeとをカメラ制御部210の画像送信部212へ出力する。画像送信部212は、カメラ110により取得された撮像画像をデータ保存部400へ送信する。 The synchronization client 211 of each camera control unit 210 communicates with the time server 300 and the synchronization client 211 of another camera control unit 210 to perform synchronization processing. As the synchronization protocol, PTP (Precision Time Protocol) is used, but the synchronization protocol is not limited to this method. The synchronization of a plurality of cameras 110 is realized by each synchronization client 211 outputting a GenLock signal and Timecode to the cameras 110 according to the result of the synchronization processing. Then, the plurality of cameras 110 perform synchronous imaging, and each camera 110 outputs the acquired captured image and the Timecode indicating the imaging time to the image transmitting unit 212 of the camera control unit 210. The image transmission unit 212 transmits the captured image acquired by the camera 110 to the data storage unit 400.

データ保存部400は、カメラ110により取得された撮像画像の他にも、仮想視点画像の生成に必要な各種の情報を保存する。データ保存部400に保存される情報には、キャリブレーション部500によるキャリブレーションにより得られた情報も含まれる。キャリブレーション部500は、キャリブレーション計算部510(以降、計算部510と表記)とキャリブレーション条件入力部520(以降、入力部520と表記)とを有し、データ保存部400から取得した撮像画像に基づいてキャリブレーションを行う。キャリブレーション部500により実行されるキャリブレーションは、情報処理システム10に含まれる複数のカメラ110それぞれのカメラパラメータを取得する情報取得処理である。キャリブレーションにより取得されるカメラパラメータには、少なくともカメラの位置を示すパラメータが含まれる。ただしこれに限らず、キャリブレーションにより取得されるカメラパラメータには、カメラの向きを示すパラメータや、カメラの焦点距離を示すパラメータや、カメラのレンズ歪の状態を示すパラメータなどが含まれていてもよい。キャリブレーションの処理の詳細については後述する。 The data storage unit 400 stores various information necessary for generating a virtual viewpoint image in addition to the captured image acquired by the camera 110. The information stored in the data storage unit 400 also includes information obtained by calibration by the calibration unit 500. The calibration unit 500 has a calibration calculation unit 510 (hereinafter referred to as a calculation unit 510) and a calibration condition input unit 520 (hereinafter referred to as an input unit 520), and an captured image acquired from the data storage unit 400. Calibrate based on. The calibration executed by the calibration unit 500 is an information acquisition process for acquiring the camera parameters of each of the plurality of cameras 110 included in the information processing system 10. The camera parameters obtained by calibration include at least parameters indicating the position of the camera. However, not limited to this, even if the camera parameters acquired by calibration include parameters indicating the orientation of the camera, parameters indicating the focal length of the camera, parameters indicating the state of lens distortion of the camera, and the like. Good. The details of the calibration process will be described later.

画像生成部600は、データ保存部400から多視点画像とキャリブレーションにより得られた情報(カメラパラメータ)を取得し、これらと視点設定部700から取得した視点情報とに基づいて仮想視点画像を生成する。仮想視点画像の生成に用いられる視点情報は、仮想視点の位置及び向きを示す情報である。具体的には、視点情報は、仮想視点の3次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。視点設定部700は、ユーザ操作に応じて視点情報を生成し、画像生成部600へ視点情報を出力する。 The image generation unit 600 acquires a multi-viewpoint image and information (camera parameters) obtained by calibration from the data storage unit 400, and generates a virtual viewpoint image based on these and the viewpoint information acquired from the viewpoint setting unit 700. To do. The viewpoint information used to generate the virtual viewpoint image is information indicating the position and orientation of the virtual viewpoint. Specifically, the viewpoint information is a parameter set including a parameter representing a three-dimensional position of the virtual viewpoint and a parameter representing the orientation of the virtual viewpoint in the pan, tilt, and roll directions. The content of the viewpoint information is not limited to the above. For example, the parameter set as the viewpoint information may include a parameter representing the size (angle of view) of the field of view of the virtual viewpoint. Further, the viewpoint information may have a plurality of parameter sets. For example, the viewpoint information may be information that has a plurality of parameter sets corresponding to a plurality of frames constituting a moving image of the virtual viewpoint image and indicates the position and orientation of the virtual viewpoint at each of a plurality of consecutive time points. .. The viewpoint setting unit 700 generates viewpoint information according to a user operation, and outputs the viewpoint information to the image generation unit 600.

仮想視点画像は、例えば以下のような方法で生成される。まず、複数のカメラ110によりそれぞれ異なる方向から撮像すること取得された複数の画像(複数視点画像)から、人物やボールなどに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。また、人物等の3次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成され、プールなどの背景の3次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。この前景モデルの生成には、各カメラ110の位置や向きの情報が必要であり、キャリブレーション部500によるキャリブレーションで得られたカメラパラメータが用いられる。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。ただし、仮想視点画像の生成方法はこれに限定されず、3次元モデルを用いずに撮像画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。画像生成部600は、生成した仮想視点画像を表示装置や記憶装置へ出力する。 The virtual viewpoint image is generated by, for example, the following method. First, a foreground image in which a foreground area corresponding to a person, a ball, or the like is extracted from a plurality of images (multi-viewpoint images) acquired by taking images from different directions by a plurality of cameras 110 and a background area other than the foreground area are obtained. The extracted background image is acquired. In addition, a foreground model representing a three-dimensional shape of a person or the like and texture data for coloring the foreground model are generated based on the foreground image, and a texture for coloring the background model representing the three-dimensional shape of the background such as a pool. Data is generated based on the background image. Information on the position and orientation of each camera 110 is required to generate this foreground model, and the camera parameters obtained by calibration by the calibration unit 500 are used. Then, the texture data is mapped to the foreground model and the background model, and the virtual viewpoint image is generated by rendering according to the virtual viewpoint indicated by the viewpoint information. However, the method of generating the virtual viewpoint image is not limited to this, and various methods such as a method of generating a virtual viewpoint image by projective transformation of the captured image without using the three-dimensional model can be used. The image generation unit 600 outputs the generated virtual viewpoint image to a display device or a storage device.

[ハードウェア構成]
次に、情報処理システム10が有する情報処理装置の1つであるキャリブレーション部500のハードウェア構成について、図3を用いて説明する。なお、カメラ制御部210や画像生成部600など、情報処理システム10に含まれる他の装置も、キャリブレーション部500と同様のハードウェア構成であってよい。キャリブレーション部500は、CPU501、ROM502、RAM503、補助記憶装置504、表示部505、操作部506、通信I/F507、及びバス508を有する。
[Hardware configuration]
Next, the hardware configuration of the calibration unit 500, which is one of the information processing devices included in the information processing system 10, will be described with reference to FIG. Other devices included in the information processing system 10, such as the camera control unit 210 and the image generation unit 600, may have the same hardware configuration as the calibration unit 500. The calibration unit 500 includes a CPU 501, a ROM 502, a RAM 503, an auxiliary storage device 504, a display unit 505, an operation unit 506, a communication I / F 507, and a bus 508.

CPU501は、ROM502やRAM503に格納されているコンピュータプログラムやデータを用いてキャリブレーション部500の全体を制御することで、キャリブレーション部500の各機能を実現する。なお、キャリブレーション部500がCPU501とは異なる1又は複数の専用のハードウェアを有し、CPU501による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM502は、変更を必要としないプログラムなどを格納する。RAM503は、補助記憶装置504から供給されるプログラムやデータ、及び通信I/F507を介して外部から供給されるデータなどを一時記憶する。補助記憶装置504は、例えばハードディスクドライブ等で構成され、撮像画像やキャリブレーションによられる情報などの種々のデータを記憶する。 The CPU 501 realizes each function of the calibration unit 500 by controlling the entire calibration unit 500 using computer programs and data stored in the ROM 502 and the RAM 503. The calibration unit 500 may have one or more dedicated hardware different from the CPU 501, and the dedicated hardware may execute at least a part of the processing by the CPU 501. Examples of dedicated hardware include ASICs (application specific integrated circuits), FPGAs (field programmable gate arrays), and DSPs (digital signal processors). The ROM 502 stores programs and the like that do not require changes. The RAM 503 temporarily stores programs and data supplied from the auxiliary storage device 504, data supplied from the outside via the communication I / F 507, and the like. The auxiliary storage device 504 is composed of, for example, a hard disk drive or the like, and stores various data such as captured images and information obtained by calibration.

表示部505は、例えば液晶ディスプレイやLED等で構成され、ユーザがキャリブレーション部500を操作するためのGUI(Graphical User Interface)などを表示する。操作部506は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU501に入力する。CPU501は、表示部505を制御する表示制御部、及び操作部506を制御する操作制御部として動作する。通信I/F507は、外部の装置との通信に用いられる。例えば、キャリブレーション部500が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F507に接続される。キャリブレーション部500が外部の装置と無線通信する機能を有する場合には、通信I/F507はアンテナを備える。バス508は、キャリブレーション部500の各部をつないで情報を伝達する。 The display unit 505 is composed of, for example, a liquid crystal display, an LED, or the like, and displays a GUI (Graphical User Interface) for the user to operate the calibration unit 500. The operation unit 506 is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, or the like, and inputs various instructions to the CPU 501 in response to an operation by the user. The CPU 501 operates as a display control unit that controls the display unit 505 and an operation control unit that controls the operation unit 506. The communication I / F 507 is used for communication with an external device. For example, when the calibration unit 500 is connected to an external device by wire, a communication cable is connected to the communication I / F 507. When the calibration unit 500 has a function of wirelessly communicating with an external device, the communication I / F 507 includes an antenna. The bus 508 connects each part of the calibration part 500 to transmit information.

本実施形態では表示部505と操作部506がキャリブレーション部500の内部に存在するものとするが、表示部505と操作部506との少なくとも一方が別の装置として存在していてもよいし、これらが存在しなくてもよい。 In the present embodiment, it is assumed that the display unit 505 and the operation unit 506 exist inside the calibration unit 500, but at least one of the display unit 505 and the operation unit 506 may exist as separate devices. These do not have to exist.

[キャリブレーション処理]
キャリブレーション部500によるキャリブレーションは、仮想視点画像の生成対象となる競技等のシーンが開始される前に撮像されたキャリブレーション用の画像を用いて行われる。以降では、キャリブレーションを行うために必要な画像を取得するための撮像をキャリブレーション撮像と表記し、キャリブレーション撮像より後に行われる仮想視点画像の生成対象となるシーンの撮像をシーン撮像と表記する。なお、仮想視点画像がリアルタイムで生成されず、録画しておいた撮像画像に基づいて生成される場合には、キャリブレーション撮像がシーン撮像より後であってもよい。
[Calibration process]
The calibration by the calibration unit 500 is performed using the calibration image captured before the scene such as the competition for which the virtual viewpoint image is generated is started. Hereinafter, the imaging for acquiring the image required for calibration is referred to as calibration imaging, and the imaging of the scene for which the virtual viewpoint image is generated after the calibration imaging is referred to as scene imaging. .. If the virtual viewpoint image is not generated in real time but is generated based on the recorded captured image, the calibration imaging may be performed after the scene imaging.

キャリブレーション撮像は、撮像領域内に基準となるオブジェクトが位置する状態で行われる。本実施形態では、基準となるオブジェクトがカメラ110により取得される撮像画像から検出可能なマーカ810であり、マーカ810を表示するボード800が複数のカメラ110で撮像可能な位置に設置されるものとする。マーカ810はボード800に印刷されていてもよいし、ボード800がマーカ810を表示するディスプレイを有していてもよい。また、ボード800の形状や基準となるオブジェクトはこれらの例に限定されない。 Calibration imaging is performed with a reference object located within the imaging area. In the present embodiment, the reference object is the marker 810 that can be detected from the captured image acquired by the camera 110, and the board 800 that displays the marker 810 is installed at a position that can be imaged by the plurality of cameras 110. To do. The marker 810 may be printed on the board 800, or the board 800 may have a display for displaying the marker 810. Further, the shape of the board 800 and the reference object are not limited to these examples.

図5は、キャリブレーション撮像時における撮像領域の例を示す。ボード800は2つのマーカ810aとマーカ810wを有し、水面より上(空気中)の領域と水面より下(水中)の領域とに跨って存在する物体である。マーカ810aはボード800の空気中の部分に位置し、マーカ810wはボード800の水中の部分に位置する。マーカ810aは空気中のカメラ110−1aと110−2aにより撮像可能であり、マーカ810wは水中のカメラ110−1wと110−2wにより撮像可能である。各マーカ810は互いに内容が異なる2次元マーカであり、マーカ810を撮像した画像からは例えばマーカ810の識別情報を読み取り可能である。ただしマーカ810の内容はこれに限定されない。以下では、ボード800がプール内を移動可能であるものとして図4の説明を行う。ただし、ボード800がプールの底の所定位置に固定されていてもよい。 FIG. 5 shows an example of an imaging region at the time of calibration imaging. The board 800 has two markers 810a and 810w, and is an object that exists across a region above the water surface (in the air) and a region below the water surface (underwater). The marker 810a is located in the air portion of the board 800, and the marker 810w is located in the underwater portion of the board 800. The marker 810a can be imaged by the cameras 110-1a and 110-2a in the air, and the marker 810w can be imaged by the cameras 110-1w and 110-2w in the water. Each marker 810 is a two-dimensional marker having different contents from each other, and for example, the identification information of the marker 810 can be read from the image obtained by capturing the marker 810. However, the content of the marker 810 is not limited to this. In the following, FIG. 4 will be described assuming that the board 800 can move in the pool. However, the board 800 may be fixed in place at the bottom of the pool.

キャリブレーション部500によるキャリブレーションに係る処理の詳細について、図4のフローチャートを用いて説明する。図4に示す処理は、キャリブレーション部500のCPU501がROM502に格納されたプログラムをRAM503に展開して実行することで実現される。なお、図4に示す処理の少なくとも一部を、CPU501とは異なる1又は複数の専用のハードウェアにより実現してもよい。図4に示す処理は、キャリブレーション撮像で取得された複数の撮像画像がデータ保存部400に記憶され、且つキャリブレーション部500とデータ保存部400との通信が可能となったタイミングで開始される。ただし、図4に示す処理の開始タイミングはこれに限定されない。 The details of the process related to the calibration by the calibration unit 500 will be described with reference to the flowchart of FIG. The process shown in FIG. 4 is realized by the CPU 501 of the calibration unit 500 expanding the program stored in the ROM 502 into the RAM 503 and executing the program. It should be noted that at least a part of the processing shown in FIG. 4 may be realized by one or a plurality of dedicated hardware different from the CPU 501. The process shown in FIG. 4 is started at the timing when a plurality of captured images acquired by the calibration imaging are stored in the data storage unit 400 and communication between the calibration unit 500 and the data storage unit 400 becomes possible. .. However, the start timing of the process shown in FIG. 4 is not limited to this.

図4の説明では、マーカ810の位置を変えながら一定の期間にわたってキャリブレーション撮像を行い、データ保存部400に複数フレームの画像が記憶されるものとする。このような複数フレームの画像を用いてキャリブレーションを行うことで、キャリブレーションの精度を向上できる。ただしこれに限定されず、キャリブレーション期間中においてマーカ810の位置が固定されていてもよい。また、単一の時刻に撮像された画像がデータ保存部400に記憶され、この画像を用いてキャリブレーションが行われてもよい。 In the description of FIG. 4, it is assumed that calibration imaging is performed for a certain period of time while changing the position of the marker 810, and images of a plurality of frames are stored in the data storage unit 400. By performing calibration using such images of a plurality of frames, the accuracy of calibration can be improved. However, the present invention is not limited to this, and the position of the marker 810 may be fixed during the calibration period. Further, an image captured at a single time may be stored in the data storage unit 400, and calibration may be performed using this image.

S101において、計算部510は、データ保存部400からどの時刻の撮像画像を取得するかを選択する。S102において、計算部510は、選択した時刻Tに複数のカメラ110により撮像された複数の画像をデータ保存部400から取得する。S102の画像取得において取得される画像には、空気中カメラシステム100aに含まれるカメラ110aにより空気中のマーカ810aを撮像することで得られる画像が含まれる。また、S102において取得される画像には、水中カメラシステム100wに含まれるカメラ110wにより水中のマーカ810wを撮像することで得られる画像も含まれる。 In S101, the calculation unit 510 selects at what time the captured image is acquired from the data storage unit 400. In S102, the calculation unit 510 acquires a plurality of images captured by the plurality of cameras 110 at the selected time T from the data storage unit 400. The image acquired in the image acquisition of S102 includes an image obtained by capturing the marker 810a in the air with the camera 110a included in the air camera system 100a. The image acquired in S102 also includes an image obtained by capturing the underwater marker 810w with the camera 110w included in the underwater camera system 100w.

S103において、計算部510は、取得した画像それぞれに対して検出処理を行う。検出処理によって画像からマーカ810が検出された場合はS104へ進み、検出されなかった場合はS105へ進む。ここで計算部510は、空気中のカメラ110aにより撮像された画像に対しては水上のマーカ810aの検出処理を行い、水中のカメラ110wにより撮像された画像に対しては水中のマーカ810wの検出処理を行う。なお計算部510は、画像からマーカ810を検出した後に、そのマーカ810が水上のマーカ810aか水中のマーカ810wかを判定してもよい。 In S103, the calculation unit 510 performs detection processing on each of the acquired images. If the marker 810 is detected from the image by the detection process, the process proceeds to S104, and if the marker 810 is not detected, the process proceeds to S105. Here, the calculation unit 510 performs detection processing of the marker 810a on the water for the image captured by the camera 110a in the air, and detects the marker 810w in the water for the image captured by the camera 110w in the water. Perform processing. After detecting the marker 810 from the image, the calculation unit 510 may determine whether the marker 810 is the marker 810a on the water or the marker 810w in the water.

S104において、計算部510は、時刻Tと検出されたマーカ810から読み取ったマーカ番号Nの組(T,N)と、画像内でのマーカ810の位置を示す座標(x,y)とを、その画像を撮像したカメラの識別情報と関連付けて記録する。S105において、計算部510は、データ保存部400に記憶されたキャリブレーション用の画像の全フレームについてマーカ810の検出処理を行ったかを判定する。まだ検出処理を行っていないフレームの画像がある場合はS101に戻って未処理のフレームの時刻Tを選択し、全フレームの画像が処理済みである場合にはS106へ進む。 In S104, the calculation unit 510 sets the time T, the set of marker numbers N read from the detected marker 810 (T, N), and the coordinates (x, y) indicating the position of the marker 810 in the image. The image is recorded in association with the identification information of the camera that captured the image. In S105, the calculation unit 510 determines whether the detection process of the marker 810 has been performed on all the frames of the calibration image stored in the data storage unit 400. If there is an image of a frame that has not been detected yet, the process returns to S101, the time T of the unprocessed frame is selected, and if the images of all frames have been processed, the process proceeds to S106.

S106において、入力部520は、マーカ810の位置情報とカメラ110の位置及び姿勢の計算初期値を取得する。マーカ810の位置情報は、空気中のマーカ810aと水中のマーカ810wの位置関係を示す。入力部520は、例えば空気中に位置する3つのマーカ810aと水中に位置する3つのマーカ810wに関する位置情報を取得する。なお、入力部520が取得する位置情報はこれに限定されない。例えば、マーカ810の位置が固定されている場合には、入力部520はマーカ810aとマーカ810wそれぞれの位置を定数の座標で示す情報を位置情報として取得してもよい。入力部520はこれらの情報をユーザ操作に応じた入力に基づいて取得するものとするが、これに限らず、外部の装置からマーカ810の位置を測定した結果を取得してもよい。 In S106, the input unit 520 acquires the position information of the marker 810 and the initial calculation values of the position and the posture of the camera 110. The position information of the marker 810 indicates the positional relationship between the marker 810a in the air and the marker 810w in the water. The input unit 520 acquires position information regarding, for example, three markers 810a located in the air and three markers 810w located in the water. The position information acquired by the input unit 520 is not limited to this. For example, when the position of the marker 810 is fixed, the input unit 520 may acquire information indicating the positions of the markers 810a and the marker 810w in constant coordinates as position information. The input unit 520 shall acquire such information based on the input according to the user operation, but the present invention is not limited to this, and the result of measuring the position of the marker 810 from an external device may be acquired.

S107において、計算部510は、時刻Tとマーカ番号(T,N)を指標IDとして、S104において記録された情報とS106において取得された情報に基づいてキャリブレーションを行う。キャリブレーションの基準となる指標は、同一のマーカ810であっても異なる時刻に撮像されたマーカ810であれば異なる指標として扱う。そのため、(T,N)の組を指標IDとして扱う。S108において、計算部510は、キャリブレーションにより得られたカメラパラメータをデータ保存部400に出力して保存する。データ保存部400に保存されたカメラパラメータは、画像生成部600による仮想視点画像の生成に用いられる。 In S107, the calculation unit 510 performs calibration based on the information recorded in S104 and the information acquired in S106, using the time T and the marker numbers (T, N) as index IDs. The index used as the reference for calibration is treated as a different index even if the same marker 810 is used if the markers 810 are imaged at different times. Therefore, the set of (T, N) is treated as an index ID. In S108, the calculation unit 510 outputs the camera parameters obtained by the calibration to the data storage unit 400 and stores them. The camera parameters stored in the data storage unit 400 are used by the image generation unit 600 to generate a virtual viewpoint image.

本実施形態におけるキャリブレーション処理では、空気中のカメラ110aのキャリブレーションには主に空気中のマーカ810aの検出結果が用いられ、水中のカメラ110wのキャリブレーションには主に水中のマーカ810wの検出結果が用いられる。これらのキャリブレーションを独立して行うと、ある座標系における座標で表される空気中のカメラ110aのカメラパラメータと、別の座標系における座標で表される水中のカメラ110wのカメラパラメータとが得られる。こうして得られたカメラパラメータに基づいて、例えば水面付近の仮想視点画像などのように水中の画像と水上の画像とを含む仮想視点画像を生成した場合、座標系のずれに起因する画像の乱れが生じる虞がある。 In the calibration process in the present embodiment, the detection result of the marker 810a in the air is mainly used for the calibration of the camera 110a in the air, and the detection of the marker 810w in the water is mainly used for the calibration of the camera 110w in the water. The result is used. When these calibrations are performed independently, the camera parameters of the camera 110a in the air represented by the coordinates in one coordinate system and the camera parameters of the camera 110w in the water represented by the coordinates in another coordinate system are obtained. Be done. When a virtual viewpoint image including an underwater image and an image on the water is generated based on the camera parameters obtained in this way, for example, a virtual viewpoint image near the water surface, the image is disturbed due to the deviation of the coordinate system. It may occur.

そこで計算部510は、入力部520が取得したマーカ810の位置情報に基づいて処理を行うことで、共通の座標系における座標で表された、空気中のカメラ110aと水中のカメラ110wのカメラパラメータを取得する。例えば、計算部510は、空気中のカメラ110aにより撮像された画像から空気中のマーカ810aを検出した結果に基づいて、空気中のカメラ110aの第1座標系における位置を表すカメラパラメータを取得する。また、計算部510は、水中のカメラ110wにより撮像された画像から水中のマーカ810wを検出した結果に基づいて、水中のカメラ110wの第2座標系における位置を表すカメラパラメータを取得する。 Therefore, the calculation unit 510 performs processing based on the position information of the marker 810 acquired by the input unit 520, so that the camera parameters of the camera 110a in the air and the camera 110w in the water are represented by the coordinates in the common coordinate system. To get. For example, the calculation unit 510 acquires a camera parameter representing the position of the camera 110a in the air in the first coordinate system based on the result of detecting the marker 810a in the air from the image captured by the camera 110a in the air. .. Further, the calculation unit 510 acquires a camera parameter representing the position of the underwater camera 110w in the second coordinate system based on the result of detecting the underwater marker 810w from the image captured by the underwater camera 110w.

そして計算部510は、入力部520が取得した位置情報から特定されるマーカ810aとマーカ810aの特定結果に基づいて、第2座標系に応じた水中のカメラ110wのカメラパラメータを第1座標系に応じた値に変換する。すなわちキャリブレーション部500は、空気中のカメラ110aにより撮像された画像と水中のカメラ110wにより撮像された画像とに基づいて、共通の座標系における複数のカメラ110のカメラパラメータを取得する。このようにしてキャリブレーションで得られたカメラパラメータを用いて仮想視点画像を生成することで、画像の乱れを抑制することができる。 Then, the calculation unit 510 sets the camera parameters of the underwater camera 110w according to the second coordinate system to the first coordinate system based on the identification results of the markers 810a and the markers 810a specified from the position information acquired by the input unit 520. Convert to the corresponding value. That is, the calibration unit 500 acquires the camera parameters of a plurality of cameras 110 in a common coordinate system based on the image captured by the camera 110a in the air and the image captured by the camera 110w in the water. By generating a virtual viewpoint image using the camera parameters obtained by the calibration in this way, it is possible to suppress image distortion.

なお、単一の座標系における座標値で表されたカメラパラメータの取得方法はこれに限定されない。例えば、計算部510は、第1座標系に応じた空気中のカメラ110aのカメラパラメータを第2座標系に応じた値に変換してもよい。また例えば、第1座標系に応じた空気中のカメラ110aのカメラパラメータと、第2座標系に応じた水中のカメラ110wのカメラパラメータとの両方を、第3座標系に応じた値に変換してもよい。また、計算部510は、カメラパラメータの変換において水の屈折率を用いることで座標系のスケールのずれを補正してもよい。ただし、屈折率を座標の計算に用いることは必須ではない。例えば、図5に示すようなマーカを複数使用し、空気中マーカと水中マーカのそれぞれについての既知の位置情報と、マーカの検出結果から計算された位置情報とのずれに基づいて、補正を行ってもよい。 The method of acquiring camera parameters represented by coordinate values in a single coordinate system is not limited to this. For example, the calculation unit 510 may convert the camera parameters of the camera 110a in the air corresponding to the first coordinate system into a value corresponding to the second coordinate system. Further, for example, both the camera parameters of the camera 110a in the air corresponding to the first coordinate system and the camera parameters of the underwater camera 110w corresponding to the second coordinate system are converted into values corresponding to the third coordinate system. You may. Further, the calculation unit 510 may correct the deviation of the scale of the coordinate system by using the refractive index of water in the conversion of the camera parameters. However, it is not essential to use the index of refraction in the calculation of coordinates. For example, a plurality of markers as shown in FIG. 5 are used, and correction is performed based on the deviation between the known position information for each of the air marker and the underwater marker and the position information calculated from the detection result of the marker. You may.

第1座標系と第2座標系それぞれにおけるカメラパラメータの取得には、複数のカメラ110により取得される複数の撮像画像におけるマーカ810の検出位置に基づいてキャリブレーションを行う既知の方法を用いることができる。すなわち、空気中カメラシステム100aにより得られる複数の画像からのマーカ810aの検出結果に基づいて、空気中のカメラ110aの第1座標系におけるカメラパラメータが取得できる。また、水中カメラシステム100wにより得られる複数の画像からのマーカ810wの検出結果に基づいて、水中のカメラ110wの第2座標系におけるカメラパラメータが取得できる。 To acquire the camera parameters in each of the first coordinate system and the second coordinate system, it is possible to use a known method of performing calibration based on the detection positions of the markers 810 in the plurality of captured images acquired by the plurality of cameras 110. it can. That is, the camera parameters in the first coordinate system of the camera 110a in the air can be acquired based on the detection results of the markers 810a from the plurality of images obtained by the camera system 100a in the air. Further, the camera parameters in the second coordinate system of the underwater camera 110w can be acquired based on the detection results of the markers 810w from the plurality of images obtained by the underwater camera system 100w.

図4を用いた上記の説明では、キャリブレーション撮像が終了して撮像画像がデータ保存部400に保存された後にキャリブレーション部500によるキャリブレーション処理が行われるものした。ただしこれに限らず、キャリブレーション撮像を一定期間にわたって行う場合に、カメラ110による撮像と平行してキャリブレーション部500によるキャリブレーション処理が行われてもよい。 In the above description using FIG. 4, the calibration process is performed by the calibration unit 500 after the calibration imaging is completed and the captured image is stored in the data storage unit 400. However, the present invention is not limited to this, and when the calibration imaging is performed over a certain period of time, the calibration process by the calibration unit 500 may be performed in parallel with the imaging by the camera 110.

[マーカの設置例]
以下では、キャリブレーション撮像を行う際のマーカ810の設置例について説明する。上述の説明で触れた図5に示す設置例では、空気中のマーカ810aと水中のマーカ810wを同一の物体であるボード800に表示させている。すなわち、ボード800が有する2つのマーカの間にプールの水面が位置する。ボード800において、マーカ810aが表示される位置とマーカ810wが表示される位置との位置関係は予め決められている。そのため、入力部520が取得したマーカ810aとマーカ810wの位置情報とを用いてキャリブレーションを行うことで、マーカ810aを基準としたカメラパラメータとマーカ810wを基準としたカメラパラメータを適切に統合することができる。
[Marker installation example]
In the following, an installation example of the marker 810 when performing calibration imaging will be described. In the installation example shown in FIG. 5 mentioned in the above description, the marker 810a in the air and the marker 810w in the water are displayed on the board 800, which is the same object. That is, the water surface of the pool is located between the two markers of the board 800. On the board 800, the positional relationship between the position where the marker 810a is displayed and the position where the marker 810w is displayed is predetermined. Therefore, by performing calibration using the marker 810a and the position information of the marker 810w acquired by the input unit 520, the camera parameters based on the marker 810a and the camera parameters based on the marker 810w can be appropriately integrated. Can be done.

なお、図5に示すようなマーカ810を用いてキャリブレーションを行う場合に、空気中のカメラ110aの撮像画像から水中のマーカ810wを検出した結果や、水中のカメラ110wの撮像画像から空気中のマーカ810aを検出した結果を用いてもよい。例えば、空気中のマーカ810aは当該マーカ810aが空気中に位置することを特定可能な情報を表し、水中のマーカ810wは当該マーカ810wが水中に位置することを特定可能な情報を表す。具体的には、空気中のマーカ810aと水中のマーカ810wはそれぞれ異なる識別子を読み取り可能な情報を表す。そして計算部510は、撮像画像から検出されたマーカ810が空気中のマーカ810aであるか水中のマーカ810wであるかを判定する。 When calibration is performed using the marker 810 as shown in FIG. 5, the result of detecting the marker 810w in water from the image captured by the camera 110a in the air and the image captured by the camera 110w in the air in the air The result of detecting the marker 810a may be used. For example, the marker 810a in the air represents information that can identify that the marker 810a is located in the air, and the marker 810w in the water represents information that can identify that the marker 810w is located in the water. Specifically, the marker 810a in the air and the marker 810w in the water represent information in which different identifiers can be read. Then, the calculation unit 510 determines whether the marker 810 detected from the captured image is the marker 810a in the air or the marker 810w in the water.

計算部510は、空気中のカメラ110aの撮像画像から検出されたマーカ810wが水中のマーカであると判定した場合、既知の相対屈折率によって検出結果を補正することで、水面における光の屈折の影響によるマーカの位置ずれを補正する。また計算部510は、水中のカメラ110wの撮像画像から検出されたマーカ810aが空気中のマーカであると判定した場合、既知の相対屈折率によって検出結果を補正する。そして計算部510は、空気中のカメラ110aの撮像画像から空気中のマーカ810aを検出した結果と、水中のカメラ110wの撮像画像から水中のマーカ810wを検出した結果に加えて、上記の補正された検出結果を用いてキャリブレーションを行う。このような方法によれば、より多くのマーカ810の検出結果を用いてキャリブレーションを行うことができるため、キャリブレーションの精度を向上させることができる。 When the calculation unit 510 determines that the marker 810w detected from the image captured by the camera 110a in the air is an underwater marker, the calculation unit 510 corrects the detection result with a known relative refractive index to prevent the refraction of light on the water surface. Correct the misalignment of the marker due to the influence. Further, when the calculation unit 510 determines that the marker 810a detected from the image captured by the underwater camera 110w is a marker in the air, the calculation unit 510 corrects the detection result by a known relative refractive index. Then, the calculation unit 510 adds the above correction to the result of detecting the marker 810a in the air from the image captured by the camera 110a in the air and the result of detecting the marker 810w in the water from the image captured by the camera 110w in the water. Calibration is performed using the detected detection result. According to such a method, the calibration can be performed using the detection results of more markers 810, so that the accuracy of the calibration can be improved.

キャリブレーションのためのマーカ810の設置方法は、図5の例に限定されない。図6は、マーカ810の別の設置例を示す。プールサイドの空気中には、マーカ810−1aを表示するボード800−1aとマーカ810−2aを表示するボード800−2aが設置される。プール内の水中には、マーカ810−1wを表示するボード800−1wとマーカ810−2wを表示するボード800−2wが設置される。マーカ810−1a、マーカ810−2a、マーカ810−1w、及びマーカ810−2wは、それぞれ、カメラ110−1a、カメラ110−2a、カメラ110−1w、及びカメラ110−2wにより撮像可能な位置に設置される。これら複数のマーカ810はキャリブレーション撮像中において固定されており、マーカ810の位置関係は変化しない。入力部520は各マーカ810の世界座標系における位置を示す位置情報を取得し、計算部510はその位置情報から各マーカ810の位置を特定した特定結果と各カメラ110により撮像された画像とを用いてキャリブレーションを行う。 The method of installing the marker 810 for calibration is not limited to the example of FIG. FIG. 6 shows another installation example of the marker 810. In the poolside air, a board 800-1a for displaying the marker 810-1a and a board 800-2a for displaying the marker 810-2a are installed. In the water in the pool, a board 800-1w for displaying the markers 810-1w and a board 800-2w for displaying the markers 810-2w are installed. The markers 810-1a, 810-2a, 810-1w, and 810-2w are located at positions that can be imaged by the cameras 110-1a, 110-2a, 110-1w, and 110-2w, respectively. Will be installed. These plurality of markers 810 are fixed during calibration imaging, and the positional relationship of the markers 810 does not change. The input unit 520 acquires the position information indicating the position of each marker 810 in the world coordinate system, and the calculation unit 510 obtains the specific result of specifying the position of each marker 810 from the position information and the image captured by each camera 110. Use to calibrate.

このように複数のマーカ810を設置する場合に、空気中のマーカ810aは水中のカメラ110wの撮像範囲に入らないように設置され、水中のマーカ810wは空気中のカメラ110aの撮像範囲に入らないように設置されてもよい。このようにすれば、空気中のカメラ110aの撮像画像から検出された水中のマーカ810wの検出結果を誤ってキャリブレーションに用いることでキャリブレーション精度が低下することを回避できる。同様に、水中のカメラ110wの撮像画像から検出された空気中のマーカ810aの検出結果を誤ってキャリブレーションに用いることでキャリブレーション精度が低下することを回避できる。この場合には、マーカ810aの内容とマーカ810wの内容とが同一であってもよい。 When a plurality of markers 810 are installed in this way, the markers 810a in the air are installed so as not to be within the imaging range of the underwater camera 110w, and the markers 810w in the water are not included in the imaging range of the camera 110a in the air. It may be installed as follows. By doing so, it is possible to prevent the calibration accuracy from being lowered by erroneously using the detection result of the underwater marker 810w detected from the captured image of the camera 110a in the air for calibration. Similarly, it is possible to avoid a decrease in calibration accuracy by erroneously using the detection result of the marker 810a in the air detected from the image captured by the underwater camera 110w for calibration. In this case, the content of the marker 810a and the content of the marker 810w may be the same.

一方、図5の説明において上述したように、各マーカ810がそのマーカの識別子を読み取り可能な情報を表してもよい。この場合には、撮像画像から検出された各マーカ810が空気中のマーカであるか水中のマーカであるかを計算部510が判定できるため、空気中のマーカ810aと水中のマーカ810wとの両方が同じカメラ110の撮像画像に含まれてもよい。これにより、マーカ810の設置に関する制約が少なくなる。なおこの場合に、空気中のカメラ110aの撮像画像から水中のマーカ810wを検出した結果と、水中のカメラ110wの撮像画像から空気中のマーカ810aを検出した結果は、キャリブレーションに用いられなくてもよい。 On the other hand, as described above in the description of FIG. 5, each marker 810 may represent information in which the identifier of the marker can be read. In this case, since the calculation unit 510 can determine whether each marker 810 detected from the captured image is a marker in the air or a marker in the water, both the marker 810a in the air and the marker 810w in the water can be determined. May be included in the captured image of the same camera 110. This reduces restrictions on the installation of the marker 810. In this case, the result of detecting the marker 810w in the water from the image captured by the camera 110a in the air and the result of detecting the marker 810a in the air from the image captured by the camera 110w in the water are not used for calibration. May be good.

図7は、マーカ810の別の設置例を示す。図7の例においては、ボード800が空気中と水中との境界面である水面に位置する。ボード800は上面(空気中の面)にマーカ810aを有し、下面(水中の面)にマーカ810wを有する。図7(a)は水面にボード800が浮かべられたプールを横から見た図であり、図7(b)は図7(a)における矢印Aの方向から見たボード800の矢視図を示し、図7(c)は図7(a)における矢印Bの方向から見たボード800の矢視図を示す。ボード800は固定されていないため、ボード800を移動させながらキャリブレーション撮像を行うことができる。入力部520はマーカ810aとマーカ810wの位置関係を示す位置情報を取得し、計算部510はその位置情報から特定したマーカ810の位置関係と各カメラ110により撮像された画像とを用いてキャリブレーションを行う。 FIG. 7 shows another installation example of the marker 810. In the example of FIG. 7, the board 800 is located on the water surface, which is the boundary surface between the air and the water. The board 800 has a marker 810a on the upper surface (surface in air) and a marker 810w on the lower surface (surface in water). FIG. 7A is a side view of the pool in which the board 800 is floated on the water surface, and FIG. 7B is an arrow view of the board 800 as seen from the direction of arrow A in FIG. 7A. 7 (c) shows an arrow view of the board 800 as viewed from the direction of arrow B in FIG. 7 (a). Since the board 800 is not fixed, calibration imaging can be performed while moving the board 800. The input unit 520 acquires the position information indicating the positional relationship between the marker 810a and the marker 810w, and the calculation unit 510 calibrates using the positional relationship of the marker 810 specified from the position information and the image captured by each camera 110. I do.

なお、キャリブレーション撮像中に水面が波立っていると、マーカ810の傾きが変化して、キャリブレーション精度が低下することが考えられる。そこで、マーカ810aとマーカ810wの少なくとも何れかは、マーカの傾きを特定可能な情報を表してもよい。例えば、ボード800がジャイロセンサ又は水準器を有し、これらによって検出された傾きに応じて異なる内容のマーカ810が、ボード800が有するディスプレイに表示されてもよい。そして計算部510は、撮像画像から検出したマーカ810の内容を読み取ることでマーカ810の傾きを判定し、マーカの傾きに基づいて補正された検出結果を用いてカメラパラメータを計算してもよい。これにより、キャリブレーション撮像中にマーカ810の傾きが変化する場合におけるキャリブレーション精度を向上させることができる。なお、計算部510は、マーカ810の面に対する法線方向を判定し、その判定結果に基づいてカメラパラメータを計算してもよい。また別の方法として、真円が含まれるマーカを使用し、撮影画像に含まれる楕円の形状からマーカ方向を推定してもよい。 If the water surface is rippling during calibration imaging, the inclination of the marker 810 may change and the calibration accuracy may decrease. Therefore, at least one of the marker 810a and the marker 810w may represent information that can specify the inclination of the marker. For example, the board 800 may have a gyro sensor or a spirit level, and markers 810 having different contents depending on the inclination detected by these may be displayed on the display of the board 800. Then, the calculation unit 510 may determine the inclination of the marker 810 by reading the content of the marker 810 detected from the captured image, and calculate the camera parameter using the detection result corrected based on the inclination of the marker. This makes it possible to improve the calibration accuracy when the inclination of the marker 810 changes during calibration imaging. The calculation unit 510 may determine the normal direction of the marker 810 with respect to the surface, and calculate the camera parameters based on the determination result. As another method, a marker including a perfect circle may be used, and the marker direction may be estimated from the shape of the ellipse included in the captured image.

以上説明したように、本実施形態におけるキャリブレーション部500は、水面を少なくとも一部含む撮像領域を撮像する複数のカメラ110のうち、水面より上側に位置するカメラ110aにより取得された画像から、空気中のマーカ810aを検出する。またキャリブレーション部500は、水面より下側に位置するカメラ110wにより取得された画像から、水中のマーカ810wを検出する。そしてキャリブレーション部500は、これらの検出結果と、空気中のマーカ810aと水中のマーカ810wの位置又は位置関係を示す位置情報とに基づいて、共通の座標系における複数のカメラ110の位置を特定する。 As described above, the calibration unit 500 in the present embodiment has air from the image acquired by the camera 110a located above the water surface among the plurality of cameras 110 that image the imaging region including at least a part of the water surface. The marker 810a inside is detected. Further, the calibration unit 500 detects the underwater marker 810w from the image acquired by the camera 110w located below the water surface. Then, the calibration unit 500 identifies the positions of the plurality of cameras 110 in the common coordinate system based on these detection results and the position information indicating the positions or positional relationships between the markers 810a in the air and the markers 810w in the water. To do.

このような構成によれば、複数のカメラ110が、互いに屈折率が異なる空気中の領域と水中の領域との境界である水面に対して両側に位置する場合であっても、共通の座標系における複数のカメラ110の位置を特定することができる。そして、このように特定された複数のカメラ110の位置を示すカメラパラメータに基づいて仮想視点画像を生成することで、仮想視点画像の画質の低下を抑制することができる。 According to such a configuration, even when a plurality of cameras 110 are located on both sides of the water surface, which is a boundary between a region in air and a region in water having different refractive indexes, a common coordinate system is used. The positions of the plurality of cameras 110 in the above can be specified. Then, by generating the virtual viewpoint image based on the camera parameters indicating the positions of the plurality of cameras 110 specified in this way, it is possible to suppress the deterioration of the image quality of the virtual viewpoint image.

以上の説明では、撮像領域内に、空気で満たされた領域(水上の領域)と、空気とは屈折率が異なる物質である水で満たされた領域(水中の領域)とが存在する場合の例を説明したが、本実施形態におけるキャリブレーション方法の適用先はこれに限定されない。例えば、撮像領域内に、空気で満たされた領域と、ガラスや樹脂又は油などで満たされた領域が存在する場合も、本実施形態におけるキャリブレーション方法を適用することで、キャリブレーション精度を向上させることができる。また例えば、撮像領域内に水で満たされた領域と油で満たされた領域とが存在してもよい。撮像領域を満たす物質が流体である場合、特に空気と液体である場合には、境界面に揺らぎが生じやすいため、本実施形態によるキャリブレーション精度の向上の効果が大きい。なお、本実施形態において領域を満たす物質とは、その3次元領域を主に構成する物質(例えば3次元領域の体積の半分以上を占める物質)を指す。 In the above description, there is a case where an air-filled region (water region) and a water-filled region (underwater region), which is a substance having a refractive index different from that of air, exist in the imaging region. Although an example has been described, the application destination of the calibration method in the present embodiment is not limited to this. For example, even when there is a region filled with air and a region filled with glass, resin, oil, or the like in the imaging region, the calibration accuracy is improved by applying the calibration method in the present embodiment. Can be made to. Further, for example, a region filled with water and a region filled with oil may exist in the imaging region. When the substance satisfying the imaging region is a fluid, particularly when it is air and a liquid, fluctuations are likely to occur at the interface, so that the effect of improving the calibration accuracy by the present embodiment is great. The substance that fills the region in the present embodiment refers to a substance that mainly constitutes the three-dimensional region (for example, a substance that occupies more than half of the volume of the three-dimensional region).

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC or the like) that realizes one or more functions. Further, the program may be recorded and provided on a computer-readable recording medium.

10 情報処理システム
110 カメラ
500 キャリブレーション部
810 マーカ
10 Information processing system 110 Camera 500 Calibration unit 810 Marker

Claims (21)

第1領域と、前記第1領域を満たす物質とは屈折率が異なる物質で満たされた第2領域との境界面を少なくとも一部含む撮像領域を撮像する複数の撮像装置のうち、前記境界面に対して前記第1領域側に位置する撮像装置により取得された画像から、前記第1領域内の所定の第1オブジェクトを検出する第1検出手段と、
前記複数の撮像装置のうち前記境界面に対して前記第2領域側に位置する撮像装置により取得された画像から、前記第2領域内の所定の第2オブジェクトを検出する第2検出手段と、
前記第1オブジェクトと前記第2オブジェクトの位置、及び、前記第1オブジェクトと前記第2オブジェクトの位置関係の、少なくとも何れかを示す位置情報を取得する取得手段と、
前記第1検出手段による検出結果と前記第2検出手段による検出結果と前記取得手段により取得された位置情報とに基づいて、共通の座標系における前記複数の撮像装置の位置を特定する特定手段とを有することを特徴とする情報処理装置。
Of a plurality of imaging devices that image an imaging region including at least a part of a boundary surface between the first region and a second region filled with a substance having a refractive index different from that of the substance satisfying the first region, the boundary surface A first detection means for detecting a predetermined first object in the first region from an image acquired by an imaging device located on the first region side.
A second detecting means for detecting a predetermined second object in the second region from an image acquired by the imaging device located on the second region side with respect to the boundary surface among the plurality of imaging devices.
An acquisition means for acquiring position information indicating at least one of the positions of the first object and the second object and the positional relationship between the first object and the second object.
A specific means for specifying the positions of the plurality of image pickup devices in a common coordinate system based on the detection result by the first detection means, the detection result by the second detection means, and the position information acquired by the acquisition means. An information processing device characterized by having.
前記第1検出手段は、前記第1領域内に設置された撮像装置により取得された画像から前記第1オブジェクトを検出し、
前記第2検出手段は、前記第2領域内に設置された撮像装置により取得された画像から前記第2オブジェクトを検出することを特徴とする請求項1に記載の情報処理装置。
The first detection means detects the first object from an image acquired by an image pickup apparatus installed in the first region, and detects the first object.
The information processing device according to claim 1, wherein the second detection means detects the second object from an image acquired by an image pickup device installed in the second region.
前記第1領域を満たす物質と前記第2領域を満たす物質は流体であることを特徴とする請求項1又は2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, wherein the substance satisfying the first region and the substance satisfying the second region are fluids. 前記第1領域を満たす物質は空気であり、前記第2領域を満たす物質は液体であることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the substance satisfying the first region is air, and the substance satisfying the second region is a liquid. 前記特定手段は、
前記第1検出手段による検出結果に基づいて、前記境界面に対して前記第1領域側に位置する撮像装置の第1座標系における位置を示す第1情報を取得し、
前記第2検出手段による検出結果に基づいて、前記境界面に対して前記第2領域側に位置する撮像装置の第2座標系における位置を示す第2情報を取得し、
前記取得手段により取得された位置情報に基づいて前記第1情報と前記第2情報との少なくとも何れかを変換することで、前記共通の座標系における前記複数の撮像装置の位置を特定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
The specific means
Based on the detection result by the first detection means, the first information indicating the position of the image pickup apparatus located on the first region side with respect to the boundary surface in the first coordinate system is acquired.
Based on the detection result by the second detection means, the second information indicating the position of the image pickup apparatus located on the second region side with respect to the boundary surface in the second coordinate system is acquired.
By converting at least one of the first information and the second information based on the position information acquired by the acquisition means, the positions of the plurality of imaging devices in the common coordinate system can be specified. The information processing apparatus according to any one of claims 1 to 4.
前記第1オブジェクトと前記第2オブジェクトは、前記第1領域と前記第2領域とに跨って存在する物体のそれぞれ異なる部分に位置することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 The first object and the second object are located in different portions of an object existing across the first region and the second region, according to any one of claims 1 to 5. The information processing device described. 前記物体は前記境界面に位置することを特徴とする請求項6に記載の情報処理装置。 The information processing apparatus according to claim 6, wherein the object is located at the boundary surface. 前記第1オブジェクトと前記第2オブジェクトは、互いに異なる内容の2次元マーカであることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the first object and the second object are two-dimensional markers having different contents from each other. 前記第1オブジェクトとしてのマーカは、当該マーカが前記第1領域内に位置することを特定可能な情報を表すことを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, wherein the marker as the first object represents information that can identify that the marker is located in the first region. 前記第1オブジェクトとしてのマーカは、当該マーカの傾きを特定可能な情報を表すことを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 9, wherein the marker as the first object represents information capable of specifying the inclination of the marker. 前記境界面に対して前記第1領域側に位置する撮像装置により取得された画像には、前記第1オブジェクトと前記第2オブジェクトとが含まれ、
前記特定手段により用いられる前記第1検出手段による検出結果は、前記第1オブジェクトの検出結果であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
The image acquired by the image pickup apparatus located on the first region side with respect to the boundary surface includes the first object and the second object.
The information processing apparatus according to any one of claims 1 to 10, wherein the detection result by the first detection means used by the specific means is the detection result of the first object.
前記第1検出手段は、前記境界面に対して前記第1領域側に位置する撮像装置により取得された画像から、前記第1オブジェクトと前記第2オブジェクトとを検出し、
前記特定手段により用いられる前記第1検出手段による検出結果は、前記第1オブジェクトの検出結果と前記第2オブジェクトの検出結果とを含むことを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
The first detection means detects the first object and the second object from the image acquired by the image pickup device located on the first region side with respect to the boundary surface.
The detection result by the first detection means used by the specific means includes any one of claims 1 to 10, characterized in that the detection result of the first object and the detection result of the second object are included. The information processing device described.
前記特定手段はさらに、前記共通の座標系における前記複数の撮像装置の向きを特定することを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 12, wherein the specifying means further specifies the orientation of the plurality of imaging devices in the common coordinate system. 前記複数の撮像装置は、前記境界面に対して前記第1領域側に位置する第1撮像装置群と、前記境界面に対して前記第2領域側に位置する第2撮像装置群を有し、
前記第1検出手段は、前記第1撮像装置群により取得された複数の画像から前記第1オブジェクトを検出し、
前記第2検出手段は、前記第2撮像装置群により取得された複数の画像から前記第2オブジェクトを検出し、
前記特定手段は、前記第1検出手段による複数の画像からの前記第1オブジェクトの検出結果と、前記第2検出手段による複数の画像からの前記第2オブジェクトの検出結果と、前記取得手段により取得された位置情報とに基づいて、前記共通の座標系における前記複数の撮像装置の位置を特定することを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。
The plurality of imaging devices include a first imaging device group located on the first region side with respect to the boundary surface and a second imaging device group located on the second region side with respect to the boundary surface. ,
The first detection means detects the first object from a plurality of images acquired by the first imaging apparatus group, and detects the first object.
The second detection means detects the second object from a plurality of images acquired by the second imaging apparatus group, and detects the second object.
The specific means acquires the detection result of the first object from a plurality of images by the first detection means, the detection result of the second object from a plurality of images by the second detection means, and the acquisition means. The information processing apparatus according to any one of claims 1 to 13, wherein the positions of the plurality of imaging devices in the common coordinate system are specified based on the obtained position information.
前記複数の撮像装置は、それぞれ異なる方向から撮像することで、仮想視点画像の生成に用いられる複数の画像を取得することを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。 The information processing according to any one of claims 1 to 14, wherein the plurality of imaging devices acquire a plurality of images used for generating a virtual viewpoint image by imaging from different directions. apparatus. 複数の撮像装置のうち第1領域内に位置する第1撮像装置群により前記第1領域内のオブジェクトを撮像することで得られる画像と、前記複数の撮像装置のうち前記第1領域を満たす物質とは屈折率が異なる物質で満たされた第2領域内に位置する第2撮像装置群により前記第2領域内のオブジェクトを撮像することで得られる画像とに基づいて、前記複数の撮像装置のキャリブレーションを行う処理手段と、
前記処理手段によるキャリブレーションにより得られた情報と、前記複数の撮像装置により複数の方向から撮像することで得られる複数の画像と、仮想視点の位置及び向きを示す視点情報とに基づいて、仮想視点画像を生成する生成手段とを有することを特徴とする情報処理システム。
An image obtained by imaging an object in the first region by a group of first imaging devices located in the first region of the plurality of imaging devices, and a substance satisfying the first region among the plurality of imaging devices. Is based on an image obtained by imaging an object in the second region by a group of second imaging devices located in a second region filled with substances having different refractive indexes. Processing means for calibration and
Virtually based on the information obtained by the calibration by the processing means, the plurality of images obtained by imaging from a plurality of directions by the plurality of imaging devices, and the viewpoint information indicating the position and orientation of the virtual viewpoint. An information processing system characterized by having a generation means for generating a viewpoint image.
前記第1領域を満たす物質は空気であり、前記第2領域を満たす物質は液体であることを特徴とする請求項16に記載の情報処理装置。 The information processing apparatus according to claim 16, wherein the substance satisfying the first region is air, and the substance satisfying the second region is a liquid. 第1領域と、前記第1領域を満たす物質とは屈折率が異なる物質で満たされた第2領域との境界面を少なくとも一部含む撮像領域を撮像する複数の撮像装置のうち、前記境界面に対して前記第1領域側に位置する撮像装置により取得された画像から、前記第1領域内の所定の第1オブジェクトを検出する第1検出工程と、
前記複数の撮像装置のうち前記境界面に対して前記第2領域側に位置する撮像装置により取得された画像から、前記第2領域内の所定の第2オブジェクトを検出する第2検出工程と、
前記第1オブジェクトと前記第2オブジェクトの位置、及び、前記第1オブジェクトと前記第2オブジェクトの位置関係の、少なくとも何れかを示す位置情報を取得する取得工程と、
前記第1検出工程における検出結果と前記第2検出工程における検出結果と前記取得工程において取得された位置情報とに基づいて、共通の座標系における前記複数の撮像装置の位置を特定する特定工程とを有することを特徴とする情報処理方法。
Of a plurality of imaging devices that image an imaging region including at least a part of a boundary surface between the first region and a second region filled with a substance having a refractive index different from that of the substance satisfying the first region, the boundary surface A first detection step of detecting a predetermined first object in the first region from an image acquired by an imaging device located on the first region side.
A second detection step of detecting a predetermined second object in the second region from an image acquired by the imaging device located on the second region side with respect to the boundary surface among the plurality of imaging devices.
An acquisition step of acquiring position information indicating at least one of the positions of the first object and the second object and the positional relationship between the first object and the second object.
A specific step of specifying the positions of the plurality of imaging devices in a common coordinate system based on the detection result in the first detection step, the detection result in the second detection step, and the position information acquired in the acquisition step. An information processing method characterized by having.
前記第1検出工程は、前記第1領域内に設置された撮像装置により取得された画像から前記第1オブジェクトを検出し、
前記第2検出工程は、前記第2領域内に設置された撮像装置により取得された画像から前記第2オブジェクトを検出することを特徴とする請求項18に記載の情報処理装置。
In the first detection step, the first object is detected from an image acquired by an image pickup device installed in the first region.
The information processing apparatus according to claim 18, wherein the second detection step detects the second object from an image acquired by an image pickup apparatus installed in the second region.
前記第1領域を満たす物質は空気であり、前記第2領域を満たす物質は液体であることを特徴とする請求項18又は19に記載の情報処理方法。 The information processing method according to claim 18 or 19, wherein the substance satisfying the first region is air, and the substance satisfying the second region is a liquid. コンピュータを、請求項1乃至15の何れか1項に記載の情報処理装置として動作させるためのプログラム。 A program for operating a computer as an information processing device according to any one of claims 1 to 15.
JP2019083242A 2019-04-24 2019-04-24 Information processing device, information processing system, information processing method, and program Pending JP2020182079A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019083242A JP2020182079A (en) 2019-04-24 2019-04-24 Information processing device, information processing system, information processing method, and program
US16/847,966 US11195321B2 (en) 2019-04-24 2020-04-14 Information processing apparatus, information processing system, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019083242A JP2020182079A (en) 2019-04-24 2019-04-24 Information processing device, information processing system, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2020182079A true JP2020182079A (en) 2020-11-05

Family

ID=73023523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019083242A Pending JP2020182079A (en) 2019-04-24 2019-04-24 Information processing device, information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2020182079A (en)

Similar Documents

Publication Publication Date Title
KR102209008B1 (en) Apparatus for estimating camera pose and method for estimating camera pose
CN109584307B (en) System and method for improving calibration of intrinsic parameters of a camera
EP3665506B1 (en) Apparatus and method for generating a representation of a scene
JP5961945B2 (en) Image processing apparatus, projector and projector system having the image processing apparatus, image processing method, program thereof, and recording medium recording the program
KR102198352B1 (en) Apparatus and method for 3d image calibration in tiled display
US8441518B2 (en) Imaging apparatus, imaging control method, and recording medium
JP2015057876A (en) Image processor, image processing system, image processing method, and program
US9295141B2 (en) Identification device, method and computer program product
CN107113376A (en) A kind of image processing method, device and video camera
CN106403901B (en) A kind of buoy attitude measuring and method
KR101203816B1 (en) Robot fish localization system using artificial markers and method of the same
WO2018154634A1 (en) Projection display device, method for controlling projection display device, and program
JP2023546739A (en) Methods, apparatus, and systems for generating three-dimensional models of scenes
CN105513074B (en) A kind of scaling method of shuttlecock robot camera and vehicle body to world coordinate system
KR100844129B1 (en) A paratus for interfacing a mouse using a camera image, system and method using the paratus, computer readable record medium on which a program therefore is recorded
EP3910451B1 (en) Display systems and methods for aligning different tracking means
JP2010217984A (en) Image detector and image detection method
JP2005141655A (en) Three-dimensional modeling apparatus and three-dimensional modeling method
US11195321B2 (en) Information processing apparatus, information processing system, information processing method, and storage medium
JP2020182079A (en) Information processing device, information processing system, information processing method, and program
JP5883688B2 (en) Installation state detection system, installation state detection device, and installation state detection method
CN101980299A (en) Chessboard calibration-based camera mapping method
JP2002354506A (en) Stereoscopic chart for correcting camera, acquisition method of correction parameter for camera, correcting information processing device for camera, and program thereof
JP2003023562A (en) Image photographic system and camera system
JP2021197572A (en) Camera control apparatus and program