JP2020182079A - Information processing device, information processing system, information processing method, and program - Google Patents
Information processing device, information processing system, information processing method, and program Download PDFInfo
- Publication number
- JP2020182079A JP2020182079A JP2019083242A JP2019083242A JP2020182079A JP 2020182079 A JP2020182079 A JP 2020182079A JP 2019083242 A JP2019083242 A JP 2019083242A JP 2019083242 A JP2019083242 A JP 2019083242A JP 2020182079 A JP2020182079 A JP 2020182079A
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- information processing
- imaging
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮像画像に基づいて撮像装置の位置を特定する技術に関するものである。 The present invention relates to a technique for specifying the position of an imaging device based on an captured image.
複数の撮像装置を異なる位置に設置して同期撮像し、当該撮像により得られた複数の撮像画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。具体的には、複数の撮像画像に基づいて、撮像画像に含まれる被写体の3次元形状データを生成し、仮想視点の位置及び向きに基づくレンダリング処理を行うことにより、仮想視点画像が生成される。 There is a technique in which a plurality of imaging devices are installed at different positions to perform synchronous imaging, and a virtual viewpoint image in which the viewpoint can be arbitrarily changed is generated by using the plurality of captured images obtained by the imaging. Specifically, a virtual viewpoint image is generated by generating three-dimensional shape data of a subject included in the captured image based on a plurality of captured images and performing rendering processing based on the position and orientation of the virtual viewpoint. ..
複数の撮像装置により取得された撮像画像に基づいて被写体の3次元形状データを生成するためには、共通の座標系における各撮像装置の位置を特定する必要がある。特許文献1には、同じマーカを複数の撮像装置により撮像することで得られた複数の画像を用いて、共通の座標系における各撮像装置の位置を特定することが開示されている。 In order to generate three-dimensional shape data of a subject based on captured images acquired by a plurality of imaging devices, it is necessary to specify the position of each imaging device in a common coordinate system. Patent Document 1 discloses that the position of each imaging device in a common coordinate system is specified by using a plurality of images obtained by imaging the same marker with a plurality of imaging devices.
特許文献1に記載の方法では、複数の撮像装置が、それぞれ屈折率が異なる物質により満たされた複数の領域の境界面に対して両側に位置する場合に、当該複数の撮像装置の位置の特定結果に誤りが生じる虞がある。例えば、アーティスティックスイミングなどの水上競技を撮像対象として仮想視点画像を生成する場合には、水面より上と水面より下にそれぞれ撮像装置を設置することが考えられる。空気中と水中とでは光の屈折率が異なるため水面で光の反射が生じたり、水面の揺らぎが生じたりすることにより、撮像装置から見て水面より奥に位置するマーカを撮像画像から安定的に検出できない。そのため、水中にのみマーカを設置して撮像した画像を用いた場合には、水面より上の撮像装置の位置の特定結果に誤りが生じうる。同様に、空気中にのみマーカを設置して撮像した画像を用いた場合には、水面より下の撮像装置の位置の特定結果に誤りが生じうる。 In the method described in Patent Document 1, when a plurality of image pickup devices are located on both sides of a boundary surface of a plurality of regions filled with substances having different refractive indexes, the positions of the plurality of image pickup devices are specified. There is a risk of error in the result. For example, when a virtual viewpoint image is generated for aquatics such as artistic swimming, it is conceivable to install imaging devices above and below the water surface, respectively. Since the refractive index of light differs between air and water, light is reflected on the water surface and fluctuations occur on the water surface, so that markers located deeper than the water surface when viewed from the image pickup device are stable from the captured image. Cannot be detected. Therefore, when the image captured by installing the marker only in water is used, an error may occur in the result of specifying the position of the imaging device above the water surface. Similarly, when an image captured by installing a marker only in the air is used, an error may occur in the result of specifying the position of the image pickup device below the water surface.
本発明は上記の課題に鑑み、複数の撮像装置が、それぞれ屈折率が異なる物質により満たされた複数の領域の境界面に対して両側に位置する場合であっても、共通の座標系における当該複数の撮像装置の位置を特定できるようにすることを目的とする。 In view of the above problems, the present invention relates to the same coordinate system even when a plurality of imaging devices are located on both sides of a boundary surface of a plurality of regions filled with substances having different refractive indexes. The purpose is to be able to identify the positions of a plurality of imaging devices.
上記の課題を解決するため、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、第1領域と、前記第1領域を満たす物質とは屈折率が異なる物質で満たされた第2領域との境界面を少なくとも一部含む撮像領域を撮像する複数の撮像装置のうち、前記境界面に対して前記第1領域側に位置する撮像装置により取得された画像から、前記第1領域内の所定の第1オブジェクトを検出する第1検出手段と、前記複数の撮像装置のうち前記境界面に対して前記第2領域側に位置する撮像装置により取得された画像から、前記第2領域内の所定の第2オブジェクトを検出する第2検出手段と、前記第1オブジェクトと前記第2オブジェクトの位置、及び、前記第1オブジェクトと前記第2オブジェクトの位置関係の、少なくとも何れかを示す位置情報を取得する取得手段と、前記第1検出手段による検出結果と前記第2検出手段による検出結果と前記取得手段により取得された位置情報とに基づいて、共通の座標系における前記複数の撮像装置の位置を特定する特定手段とを有する。 In order to solve the above problems, the information processing apparatus according to the present invention has, for example, the following configuration. That is, among a plurality of imaging devices that image an imaging region including at least a part of a boundary surface between the first region and the second region filled with a substance having a refractive index different from that of the substance satisfying the first region. The first detection means for detecting a predetermined first object in the first region from the image acquired by the image pickup device located on the first region side with respect to the boundary surface, and the plurality of image pickup devices. A second detection means for detecting a predetermined second object in the second region from an image acquired by an imaging device located on the second region side with respect to the boundary surface, the first object, and the second object. An acquisition means for acquiring at least one of the position of an object and the positional relationship between the first object and the second object, a detection result by the first detection means, and detection by the second detection means. It has a specific means for identifying the positions of the plurality of image pickup devices in a common coordinate system based on the result and the position information acquired by the acquisition means.
本発明によれば、複数の撮像装置が、それぞれ屈折率が異なる物質により満たされた複数の領域の境界面に対して両側に位置する場合であっても、共通の座標系における当該複数の撮像装置の位置を特定できる。 According to the present invention, even when a plurality of imaging devices are located on both sides of a boundary surface of a plurality of regions filled with substances having different refractive indexes, the plurality of imaging devices in a common coordinate system are used. The position of the device can be specified.
以下、図面を参照して本発明の実施形態を詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.
[情報処理システムの構成]
図1および図2を用いて、情報処理システム10の構成例について説明する。情報処理システム10は、複数の撮像装置による撮像に基づく複数の画像(多視点画像)と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
[Information processing system configuration]
A configuration example of the
情報処理システム10は、撮像領域を複数の方向から撮像する撮像装置としての複数のカメラを有する。本実施形態では、撮像対象となる撮像領域が、アーティスティックスイミングや競泳、水球などの水上競技が行われるプールの近傍であるものとする。複数のカメラは、このような撮像領域を取り囲むようにそれぞれ異なる位置に設置され、同期して撮像を行う。また、情報処理システム10に含まれる複数のカメラは、設置場所が異なる複数の撮像装置群に分類される。図1に示す例において、空気中カメラシステム100aは水面より上側、具体的にはプール周囲の空気中に設置された複数のカメラ110aを有する撮像装置群であり、主に水上の空気中を撮像する。一方、水中カメラシステム100wは水面より下側、具体的にはプールの隅の水中に設置された複数のカメラ110wを有する撮像装置群であり、主に水中を撮像する。ただし、空気中のカメラ100aと水中のカメラ100wのいずれも、空気中の領域と水中の領域との境界面であるプールの水面を少なくとも一部含む撮像領域を撮像する。
The
なお、複数のカメラは撮像領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮像領域の一部の方向にのみ設置されていてもよい。また、図1ではカメラ110−1a、110−2a、110−1w、及び110−2wを示しており、図2ではこれに加えてカメラ110−3a及び110−3wを示しているが、カメラの数はこれに限定されない。例えば、空気中カメラシステム100aと水中カメラシステム100wとがそれぞれ30台程度のカメラを有していてもよい。また、撮像対象は上記に限定されるものではなく、撮像対象に応じてカメラの数が異なっていてもよい。また、望遠カメラと広角カメラなど機能が異なるカメラが設置されていてもよい。
It should be noted that the plurality of cameras may not be installed over the entire circumference of the imaging area, and may be installed only in a part of the imaging area depending on the limitation of the installation location or the like. Further, FIG. 1 shows cameras 110-1a, 110-2a, 110-1w, and 110-2w, and FIG. 2 shows cameras 110-3a and 110-3w in addition to the cameras 110-1a, 110-2a, 110-1w, and 110-2w. The number is not limited to this. For example, the
本明細書では、符号末尾にアルファベットのaが付けられた構成要素は空気中に存在するものとし、符号末尾にアルファベットのwが付けられた構成要素は水中に存在するものとする。また、空気中カメラシステム100a内のカメラを区別しない場合にはカメラ110aと表記し、水中カメラシステム100w内のカメラを区別しない場合にはカメラ110wと表記し、空気中か水中かも区別しない場合には単にカメラ110と表記する。空気中カメラシステム100aと水中カメラシステム100wのその他の構成要素についても、同様に符号を表記する。
In the present specification, it is assumed that the component having the alphabet a at the end of the code exists in the air, and the component having the letter w at the end of the code exists in the water. Further, when the cameras in the
図1および図2に示すように、空気中カメラシステム100aが有する複数のカメラ110aは、それぞれに対応するカメラ制御部210aを介してデイジーチェイン接続される。水中カメラシステム100wが有する複数のカメラ110wも同様に、それぞれに対応するカメラ制御部210wを介してデイジーチェイン接続される。なお、空気中カメラシステム100aと水中カメラシステム100wとが分離して接続されることは必須ではなく、空気中カメラシステム100aと水中カメラシステム100wとが直列に接続されていてもよい。また、デイジーチェイン接続は必須ではなく、複数のカメラ制御部210がスター型などのネットワークトポロジーで接続されていてもよい。
As shown in FIGS. 1 and 2, a plurality of cameras 110a included in the
空気中カメラシステム100aが有する複数のカメラ110aは、プールの水上を撮像するために適した位置及び向きで設置され、例えば水面近傍などの注目位置を所定の画質で撮像できるように焦点距離とフォーカスが設定される。水中カメラシステム100wのカメラ110wも同様に、プールの水中を撮像するために適した位置及び向きで設置され、水面近傍などの注目位置を所定の画質で撮像できるように焦点距離とフォーカスが設定される。本実施形態では、水中カメラシステム100wが有するカメラ110wは防水機能を有しており、水中に直接設置されているものとする。ただしこれに限らず、カメラ110wは、水中に設置された防水性を担保するハウジング等に収容されていてもよい。また、プールが透明なアクリルガラス等でできており、カメラ110wはプールの外側で且つ水面より下側から水中を撮像できるように設置されていてもよい。
The plurality of cameras 110a included in the
図2に示すように、空気中カメラシステム100aは、カメラ110aと、カメラ110aに接続されたカメラ制御部210aを複数有する。そして各カメラ制御部210aは、同期クライアント211aと画像送信部212aとを有する。空気中カメラシステム100aが有する複数のカメラ制御部210aはデイジーチェイン接続され、最も端のカメラ制御部210−1aは時刻サーバ300およびデータ保存部400に接続される。水中カメラシステム100wの構成も同様である。
As shown in FIG. 2, the in-
各カメラ制御部210の同期クライアント211は、時刻サーバ300および他のカメラ制御部210の同期クライアント211と通信して同期処理を行う。同期プロトコルとしては、PTP(Precision Time Protocol)を使用するものとするが、この方式に限定されるものではない。各同期クライアント211が同期処理の結果に応じてGenLock信号とTimecodeをカメラ110に対して出力することで、複数のカメラ110の同期が実現される。そして、複数のカメラ110は同期撮像を行い、各カメラ110は取得した撮像画像と撮像時刻を示すTimecodeとをカメラ制御部210の画像送信部212へ出力する。画像送信部212は、カメラ110により取得された撮像画像をデータ保存部400へ送信する。
The synchronization client 211 of each camera control unit 210 communicates with the
データ保存部400は、カメラ110により取得された撮像画像の他にも、仮想視点画像の生成に必要な各種の情報を保存する。データ保存部400に保存される情報には、キャリブレーション部500によるキャリブレーションにより得られた情報も含まれる。キャリブレーション部500は、キャリブレーション計算部510(以降、計算部510と表記)とキャリブレーション条件入力部520(以降、入力部520と表記)とを有し、データ保存部400から取得した撮像画像に基づいてキャリブレーションを行う。キャリブレーション部500により実行されるキャリブレーションは、情報処理システム10に含まれる複数のカメラ110それぞれのカメラパラメータを取得する情報取得処理である。キャリブレーションにより取得されるカメラパラメータには、少なくともカメラの位置を示すパラメータが含まれる。ただしこれに限らず、キャリブレーションにより取得されるカメラパラメータには、カメラの向きを示すパラメータや、カメラの焦点距離を示すパラメータや、カメラのレンズ歪の状態を示すパラメータなどが含まれていてもよい。キャリブレーションの処理の詳細については後述する。
The
画像生成部600は、データ保存部400から多視点画像とキャリブレーションにより得られた情報(カメラパラメータ)を取得し、これらと視点設定部700から取得した視点情報とに基づいて仮想視点画像を生成する。仮想視点画像の生成に用いられる視点情報は、仮想視点の位置及び向きを示す情報である。具体的には、視点情報は、仮想視点の3次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。視点設定部700は、ユーザ操作に応じて視点情報を生成し、画像生成部600へ視点情報を出力する。
The
仮想視点画像は、例えば以下のような方法で生成される。まず、複数のカメラ110によりそれぞれ異なる方向から撮像すること取得された複数の画像(複数視点画像)から、人物やボールなどに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。また、人物等の3次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成され、プールなどの背景の3次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。この前景モデルの生成には、各カメラ110の位置や向きの情報が必要であり、キャリブレーション部500によるキャリブレーションで得られたカメラパラメータが用いられる。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。ただし、仮想視点画像の生成方法はこれに限定されず、3次元モデルを用いずに撮像画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。画像生成部600は、生成した仮想視点画像を表示装置や記憶装置へ出力する。
The virtual viewpoint image is generated by, for example, the following method. First, a foreground image in which a foreground area corresponding to a person, a ball, or the like is extracted from a plurality of images (multi-viewpoint images) acquired by taking images from different directions by a plurality of cameras 110 and a background area other than the foreground area are obtained. The extracted background image is acquired. In addition, a foreground model representing a three-dimensional shape of a person or the like and texture data for coloring the foreground model are generated based on the foreground image, and a texture for coloring the background model representing the three-dimensional shape of the background such as a pool. Data is generated based on the background image. Information on the position and orientation of each camera 110 is required to generate this foreground model, and the camera parameters obtained by calibration by the
[ハードウェア構成]
次に、情報処理システム10が有する情報処理装置の1つであるキャリブレーション部500のハードウェア構成について、図3を用いて説明する。なお、カメラ制御部210や画像生成部600など、情報処理システム10に含まれる他の装置も、キャリブレーション部500と同様のハードウェア構成であってよい。キャリブレーション部500は、CPU501、ROM502、RAM503、補助記憶装置504、表示部505、操作部506、通信I/F507、及びバス508を有する。
[Hardware configuration]
Next, the hardware configuration of the
CPU501は、ROM502やRAM503に格納されているコンピュータプログラムやデータを用いてキャリブレーション部500の全体を制御することで、キャリブレーション部500の各機能を実現する。なお、キャリブレーション部500がCPU501とは異なる1又は複数の専用のハードウェアを有し、CPU501による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM502は、変更を必要としないプログラムなどを格納する。RAM503は、補助記憶装置504から供給されるプログラムやデータ、及び通信I/F507を介して外部から供給されるデータなどを一時記憶する。補助記憶装置504は、例えばハードディスクドライブ等で構成され、撮像画像やキャリブレーションによられる情報などの種々のデータを記憶する。
The
表示部505は、例えば液晶ディスプレイやLED等で構成され、ユーザがキャリブレーション部500を操作するためのGUI(Graphical User Interface)などを表示する。操作部506は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU501に入力する。CPU501は、表示部505を制御する表示制御部、及び操作部506を制御する操作制御部として動作する。通信I/F507は、外部の装置との通信に用いられる。例えば、キャリブレーション部500が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F507に接続される。キャリブレーション部500が外部の装置と無線通信する機能を有する場合には、通信I/F507はアンテナを備える。バス508は、キャリブレーション部500の各部をつないで情報を伝達する。
The
本実施形態では表示部505と操作部506がキャリブレーション部500の内部に存在するものとするが、表示部505と操作部506との少なくとも一方が別の装置として存在していてもよいし、これらが存在しなくてもよい。
In the present embodiment, it is assumed that the
[キャリブレーション処理]
キャリブレーション部500によるキャリブレーションは、仮想視点画像の生成対象となる競技等のシーンが開始される前に撮像されたキャリブレーション用の画像を用いて行われる。以降では、キャリブレーションを行うために必要な画像を取得するための撮像をキャリブレーション撮像と表記し、キャリブレーション撮像より後に行われる仮想視点画像の生成対象となるシーンの撮像をシーン撮像と表記する。なお、仮想視点画像がリアルタイムで生成されず、録画しておいた撮像画像に基づいて生成される場合には、キャリブレーション撮像がシーン撮像より後であってもよい。
[Calibration process]
The calibration by the
キャリブレーション撮像は、撮像領域内に基準となるオブジェクトが位置する状態で行われる。本実施形態では、基準となるオブジェクトがカメラ110により取得される撮像画像から検出可能なマーカ810であり、マーカ810を表示するボード800が複数のカメラ110で撮像可能な位置に設置されるものとする。マーカ810はボード800に印刷されていてもよいし、ボード800がマーカ810を表示するディスプレイを有していてもよい。また、ボード800の形状や基準となるオブジェクトはこれらの例に限定されない。
Calibration imaging is performed with a reference object located within the imaging area. In the present embodiment, the reference object is the marker 810 that can be detected from the captured image acquired by the camera 110, and the
図5は、キャリブレーション撮像時における撮像領域の例を示す。ボード800は2つのマーカ810aとマーカ810wを有し、水面より上(空気中)の領域と水面より下(水中)の領域とに跨って存在する物体である。マーカ810aはボード800の空気中の部分に位置し、マーカ810wはボード800の水中の部分に位置する。マーカ810aは空気中のカメラ110−1aと110−2aにより撮像可能であり、マーカ810wは水中のカメラ110−1wと110−2wにより撮像可能である。各マーカ810は互いに内容が異なる2次元マーカであり、マーカ810を撮像した画像からは例えばマーカ810の識別情報を読み取り可能である。ただしマーカ810の内容はこれに限定されない。以下では、ボード800がプール内を移動可能であるものとして図4の説明を行う。ただし、ボード800がプールの底の所定位置に固定されていてもよい。
FIG. 5 shows an example of an imaging region at the time of calibration imaging. The
キャリブレーション部500によるキャリブレーションに係る処理の詳細について、図4のフローチャートを用いて説明する。図4に示す処理は、キャリブレーション部500のCPU501がROM502に格納されたプログラムをRAM503に展開して実行することで実現される。なお、図4に示す処理の少なくとも一部を、CPU501とは異なる1又は複数の専用のハードウェアにより実現してもよい。図4に示す処理は、キャリブレーション撮像で取得された複数の撮像画像がデータ保存部400に記憶され、且つキャリブレーション部500とデータ保存部400との通信が可能となったタイミングで開始される。ただし、図4に示す処理の開始タイミングはこれに限定されない。
The details of the process related to the calibration by the
図4の説明では、マーカ810の位置を変えながら一定の期間にわたってキャリブレーション撮像を行い、データ保存部400に複数フレームの画像が記憶されるものとする。このような複数フレームの画像を用いてキャリブレーションを行うことで、キャリブレーションの精度を向上できる。ただしこれに限定されず、キャリブレーション期間中においてマーカ810の位置が固定されていてもよい。また、単一の時刻に撮像された画像がデータ保存部400に記憶され、この画像を用いてキャリブレーションが行われてもよい。
In the description of FIG. 4, it is assumed that calibration imaging is performed for a certain period of time while changing the position of the marker 810, and images of a plurality of frames are stored in the
S101において、計算部510は、データ保存部400からどの時刻の撮像画像を取得するかを選択する。S102において、計算部510は、選択した時刻Tに複数のカメラ110により撮像された複数の画像をデータ保存部400から取得する。S102の画像取得において取得される画像には、空気中カメラシステム100aに含まれるカメラ110aにより空気中のマーカ810aを撮像することで得られる画像が含まれる。また、S102において取得される画像には、水中カメラシステム100wに含まれるカメラ110wにより水中のマーカ810wを撮像することで得られる画像も含まれる。
In S101, the
S103において、計算部510は、取得した画像それぞれに対して検出処理を行う。検出処理によって画像からマーカ810が検出された場合はS104へ進み、検出されなかった場合はS105へ進む。ここで計算部510は、空気中のカメラ110aにより撮像された画像に対しては水上のマーカ810aの検出処理を行い、水中のカメラ110wにより撮像された画像に対しては水中のマーカ810wの検出処理を行う。なお計算部510は、画像からマーカ810を検出した後に、そのマーカ810が水上のマーカ810aか水中のマーカ810wかを判定してもよい。
In S103, the
S104において、計算部510は、時刻Tと検出されたマーカ810から読み取ったマーカ番号Nの組(T,N)と、画像内でのマーカ810の位置を示す座標(x,y)とを、その画像を撮像したカメラの識別情報と関連付けて記録する。S105において、計算部510は、データ保存部400に記憶されたキャリブレーション用の画像の全フレームについてマーカ810の検出処理を行ったかを判定する。まだ検出処理を行っていないフレームの画像がある場合はS101に戻って未処理のフレームの時刻Tを選択し、全フレームの画像が処理済みである場合にはS106へ進む。
In S104, the
S106において、入力部520は、マーカ810の位置情報とカメラ110の位置及び姿勢の計算初期値を取得する。マーカ810の位置情報は、空気中のマーカ810aと水中のマーカ810wの位置関係を示す。入力部520は、例えば空気中に位置する3つのマーカ810aと水中に位置する3つのマーカ810wに関する位置情報を取得する。なお、入力部520が取得する位置情報はこれに限定されない。例えば、マーカ810の位置が固定されている場合には、入力部520はマーカ810aとマーカ810wそれぞれの位置を定数の座標で示す情報を位置情報として取得してもよい。入力部520はこれらの情報をユーザ操作に応じた入力に基づいて取得するものとするが、これに限らず、外部の装置からマーカ810の位置を測定した結果を取得してもよい。
In S106, the
S107において、計算部510は、時刻Tとマーカ番号(T,N)を指標IDとして、S104において記録された情報とS106において取得された情報に基づいてキャリブレーションを行う。キャリブレーションの基準となる指標は、同一のマーカ810であっても異なる時刻に撮像されたマーカ810であれば異なる指標として扱う。そのため、(T,N)の組を指標IDとして扱う。S108において、計算部510は、キャリブレーションにより得られたカメラパラメータをデータ保存部400に出力して保存する。データ保存部400に保存されたカメラパラメータは、画像生成部600による仮想視点画像の生成に用いられる。
In S107, the
本実施形態におけるキャリブレーション処理では、空気中のカメラ110aのキャリブレーションには主に空気中のマーカ810aの検出結果が用いられ、水中のカメラ110wのキャリブレーションには主に水中のマーカ810wの検出結果が用いられる。これらのキャリブレーションを独立して行うと、ある座標系における座標で表される空気中のカメラ110aのカメラパラメータと、別の座標系における座標で表される水中のカメラ110wのカメラパラメータとが得られる。こうして得られたカメラパラメータに基づいて、例えば水面付近の仮想視点画像などのように水中の画像と水上の画像とを含む仮想視点画像を生成した場合、座標系のずれに起因する画像の乱れが生じる虞がある。
In the calibration process in the present embodiment, the detection result of the
そこで計算部510は、入力部520が取得したマーカ810の位置情報に基づいて処理を行うことで、共通の座標系における座標で表された、空気中のカメラ110aと水中のカメラ110wのカメラパラメータを取得する。例えば、計算部510は、空気中のカメラ110aにより撮像された画像から空気中のマーカ810aを検出した結果に基づいて、空気中のカメラ110aの第1座標系における位置を表すカメラパラメータを取得する。また、計算部510は、水中のカメラ110wにより撮像された画像から水中のマーカ810wを検出した結果に基づいて、水中のカメラ110wの第2座標系における位置を表すカメラパラメータを取得する。
Therefore, the
そして計算部510は、入力部520が取得した位置情報から特定されるマーカ810aとマーカ810aの特定結果に基づいて、第2座標系に応じた水中のカメラ110wのカメラパラメータを第1座標系に応じた値に変換する。すなわちキャリブレーション部500は、空気中のカメラ110aにより撮像された画像と水中のカメラ110wにより撮像された画像とに基づいて、共通の座標系における複数のカメラ110のカメラパラメータを取得する。このようにしてキャリブレーションで得られたカメラパラメータを用いて仮想視点画像を生成することで、画像の乱れを抑制することができる。
Then, the
なお、単一の座標系における座標値で表されたカメラパラメータの取得方法はこれに限定されない。例えば、計算部510は、第1座標系に応じた空気中のカメラ110aのカメラパラメータを第2座標系に応じた値に変換してもよい。また例えば、第1座標系に応じた空気中のカメラ110aのカメラパラメータと、第2座標系に応じた水中のカメラ110wのカメラパラメータとの両方を、第3座標系に応じた値に変換してもよい。また、計算部510は、カメラパラメータの変換において水の屈折率を用いることで座標系のスケールのずれを補正してもよい。ただし、屈折率を座標の計算に用いることは必須ではない。例えば、図5に示すようなマーカを複数使用し、空気中マーカと水中マーカのそれぞれについての既知の位置情報と、マーカの検出結果から計算された位置情報とのずれに基づいて、補正を行ってもよい。
The method of acquiring camera parameters represented by coordinate values in a single coordinate system is not limited to this. For example, the
第1座標系と第2座標系それぞれにおけるカメラパラメータの取得には、複数のカメラ110により取得される複数の撮像画像におけるマーカ810の検出位置に基づいてキャリブレーションを行う既知の方法を用いることができる。すなわち、空気中カメラシステム100aにより得られる複数の画像からのマーカ810aの検出結果に基づいて、空気中のカメラ110aの第1座標系におけるカメラパラメータが取得できる。また、水中カメラシステム100wにより得られる複数の画像からのマーカ810wの検出結果に基づいて、水中のカメラ110wの第2座標系におけるカメラパラメータが取得できる。
To acquire the camera parameters in each of the first coordinate system and the second coordinate system, it is possible to use a known method of performing calibration based on the detection positions of the markers 810 in the plurality of captured images acquired by the plurality of cameras 110. it can. That is, the camera parameters in the first coordinate system of the camera 110a in the air can be acquired based on the detection results of the
図4を用いた上記の説明では、キャリブレーション撮像が終了して撮像画像がデータ保存部400に保存された後にキャリブレーション部500によるキャリブレーション処理が行われるものした。ただしこれに限らず、キャリブレーション撮像を一定期間にわたって行う場合に、カメラ110による撮像と平行してキャリブレーション部500によるキャリブレーション処理が行われてもよい。
In the above description using FIG. 4, the calibration process is performed by the
[マーカの設置例]
以下では、キャリブレーション撮像を行う際のマーカ810の設置例について説明する。上述の説明で触れた図5に示す設置例では、空気中のマーカ810aと水中のマーカ810wを同一の物体であるボード800に表示させている。すなわち、ボード800が有する2つのマーカの間にプールの水面が位置する。ボード800において、マーカ810aが表示される位置とマーカ810wが表示される位置との位置関係は予め決められている。そのため、入力部520が取得したマーカ810aとマーカ810wの位置情報とを用いてキャリブレーションを行うことで、マーカ810aを基準としたカメラパラメータとマーカ810wを基準としたカメラパラメータを適切に統合することができる。
[Marker installation example]
In the following, an installation example of the marker 810 when performing calibration imaging will be described. In the installation example shown in FIG. 5 mentioned in the above description, the
なお、図5に示すようなマーカ810を用いてキャリブレーションを行う場合に、空気中のカメラ110aの撮像画像から水中のマーカ810wを検出した結果や、水中のカメラ110wの撮像画像から空気中のマーカ810aを検出した結果を用いてもよい。例えば、空気中のマーカ810aは当該マーカ810aが空気中に位置することを特定可能な情報を表し、水中のマーカ810wは当該マーカ810wが水中に位置することを特定可能な情報を表す。具体的には、空気中のマーカ810aと水中のマーカ810wはそれぞれ異なる識別子を読み取り可能な情報を表す。そして計算部510は、撮像画像から検出されたマーカ810が空気中のマーカ810aであるか水中のマーカ810wであるかを判定する。
When calibration is performed using the marker 810 as shown in FIG. 5, the result of detecting the
計算部510は、空気中のカメラ110aの撮像画像から検出されたマーカ810wが水中のマーカであると判定した場合、既知の相対屈折率によって検出結果を補正することで、水面における光の屈折の影響によるマーカの位置ずれを補正する。また計算部510は、水中のカメラ110wの撮像画像から検出されたマーカ810aが空気中のマーカであると判定した場合、既知の相対屈折率によって検出結果を補正する。そして計算部510は、空気中のカメラ110aの撮像画像から空気中のマーカ810aを検出した結果と、水中のカメラ110wの撮像画像から水中のマーカ810wを検出した結果に加えて、上記の補正された検出結果を用いてキャリブレーションを行う。このような方法によれば、より多くのマーカ810の検出結果を用いてキャリブレーションを行うことができるため、キャリブレーションの精度を向上させることができる。
When the
キャリブレーションのためのマーカ810の設置方法は、図5の例に限定されない。図6は、マーカ810の別の設置例を示す。プールサイドの空気中には、マーカ810−1aを表示するボード800−1aとマーカ810−2aを表示するボード800−2aが設置される。プール内の水中には、マーカ810−1wを表示するボード800−1wとマーカ810−2wを表示するボード800−2wが設置される。マーカ810−1a、マーカ810−2a、マーカ810−1w、及びマーカ810−2wは、それぞれ、カメラ110−1a、カメラ110−2a、カメラ110−1w、及びカメラ110−2wにより撮像可能な位置に設置される。これら複数のマーカ810はキャリブレーション撮像中において固定されており、マーカ810の位置関係は変化しない。入力部520は各マーカ810の世界座標系における位置を示す位置情報を取得し、計算部510はその位置情報から各マーカ810の位置を特定した特定結果と各カメラ110により撮像された画像とを用いてキャリブレーションを行う。
The method of installing the marker 810 for calibration is not limited to the example of FIG. FIG. 6 shows another installation example of the marker 810. In the poolside air, a board 800-1a for displaying the marker 810-1a and a board 800-2a for displaying the marker 810-2a are installed. In the water in the pool, a board 800-1w for displaying the markers 810-1w and a board 800-2w for displaying the markers 810-2w are installed. The markers 810-1a, 810-2a, 810-1w, and 810-2w are located at positions that can be imaged by the cameras 110-1a, 110-2a, 110-1w, and 110-2w, respectively. Will be installed. These plurality of markers 810 are fixed during calibration imaging, and the positional relationship of the markers 810 does not change. The
このように複数のマーカ810を設置する場合に、空気中のマーカ810aは水中のカメラ110wの撮像範囲に入らないように設置され、水中のマーカ810wは空気中のカメラ110aの撮像範囲に入らないように設置されてもよい。このようにすれば、空気中のカメラ110aの撮像画像から検出された水中のマーカ810wの検出結果を誤ってキャリブレーションに用いることでキャリブレーション精度が低下することを回避できる。同様に、水中のカメラ110wの撮像画像から検出された空気中のマーカ810aの検出結果を誤ってキャリブレーションに用いることでキャリブレーション精度が低下することを回避できる。この場合には、マーカ810aの内容とマーカ810wの内容とが同一であってもよい。
When a plurality of markers 810 are installed in this way, the
一方、図5の説明において上述したように、各マーカ810がそのマーカの識別子を読み取り可能な情報を表してもよい。この場合には、撮像画像から検出された各マーカ810が空気中のマーカであるか水中のマーカであるかを計算部510が判定できるため、空気中のマーカ810aと水中のマーカ810wとの両方が同じカメラ110の撮像画像に含まれてもよい。これにより、マーカ810の設置に関する制約が少なくなる。なおこの場合に、空気中のカメラ110aの撮像画像から水中のマーカ810wを検出した結果と、水中のカメラ110wの撮像画像から空気中のマーカ810aを検出した結果は、キャリブレーションに用いられなくてもよい。
On the other hand, as described above in the description of FIG. 5, each marker 810 may represent information in which the identifier of the marker can be read. In this case, since the
図7は、マーカ810の別の設置例を示す。図7の例においては、ボード800が空気中と水中との境界面である水面に位置する。ボード800は上面(空気中の面)にマーカ810aを有し、下面(水中の面)にマーカ810wを有する。図7(a)は水面にボード800が浮かべられたプールを横から見た図であり、図7(b)は図7(a)における矢印Aの方向から見たボード800の矢視図を示し、図7(c)は図7(a)における矢印Bの方向から見たボード800の矢視図を示す。ボード800は固定されていないため、ボード800を移動させながらキャリブレーション撮像を行うことができる。入力部520はマーカ810aとマーカ810wの位置関係を示す位置情報を取得し、計算部510はその位置情報から特定したマーカ810の位置関係と各カメラ110により撮像された画像とを用いてキャリブレーションを行う。
FIG. 7 shows another installation example of the marker 810. In the example of FIG. 7, the
なお、キャリブレーション撮像中に水面が波立っていると、マーカ810の傾きが変化して、キャリブレーション精度が低下することが考えられる。そこで、マーカ810aとマーカ810wの少なくとも何れかは、マーカの傾きを特定可能な情報を表してもよい。例えば、ボード800がジャイロセンサ又は水準器を有し、これらによって検出された傾きに応じて異なる内容のマーカ810が、ボード800が有するディスプレイに表示されてもよい。そして計算部510は、撮像画像から検出したマーカ810の内容を読み取ることでマーカ810の傾きを判定し、マーカの傾きに基づいて補正された検出結果を用いてカメラパラメータを計算してもよい。これにより、キャリブレーション撮像中にマーカ810の傾きが変化する場合におけるキャリブレーション精度を向上させることができる。なお、計算部510は、マーカ810の面に対する法線方向を判定し、その判定結果に基づいてカメラパラメータを計算してもよい。また別の方法として、真円が含まれるマーカを使用し、撮影画像に含まれる楕円の形状からマーカ方向を推定してもよい。
If the water surface is rippling during calibration imaging, the inclination of the marker 810 may change and the calibration accuracy may decrease. Therefore, at least one of the
以上説明したように、本実施形態におけるキャリブレーション部500は、水面を少なくとも一部含む撮像領域を撮像する複数のカメラ110のうち、水面より上側に位置するカメラ110aにより取得された画像から、空気中のマーカ810aを検出する。またキャリブレーション部500は、水面より下側に位置するカメラ110wにより取得された画像から、水中のマーカ810wを検出する。そしてキャリブレーション部500は、これらの検出結果と、空気中のマーカ810aと水中のマーカ810wの位置又は位置関係を示す位置情報とに基づいて、共通の座標系における複数のカメラ110の位置を特定する。
As described above, the
このような構成によれば、複数のカメラ110が、互いに屈折率が異なる空気中の領域と水中の領域との境界である水面に対して両側に位置する場合であっても、共通の座標系における複数のカメラ110の位置を特定することができる。そして、このように特定された複数のカメラ110の位置を示すカメラパラメータに基づいて仮想視点画像を生成することで、仮想視点画像の画質の低下を抑制することができる。 According to such a configuration, even when a plurality of cameras 110 are located on both sides of the water surface, which is a boundary between a region in air and a region in water having different refractive indexes, a common coordinate system is used. The positions of the plurality of cameras 110 in the above can be specified. Then, by generating the virtual viewpoint image based on the camera parameters indicating the positions of the plurality of cameras 110 specified in this way, it is possible to suppress the deterioration of the image quality of the virtual viewpoint image.
以上の説明では、撮像領域内に、空気で満たされた領域(水上の領域)と、空気とは屈折率が異なる物質である水で満たされた領域(水中の領域)とが存在する場合の例を説明したが、本実施形態におけるキャリブレーション方法の適用先はこれに限定されない。例えば、撮像領域内に、空気で満たされた領域と、ガラスや樹脂又は油などで満たされた領域が存在する場合も、本実施形態におけるキャリブレーション方法を適用することで、キャリブレーション精度を向上させることができる。また例えば、撮像領域内に水で満たされた領域と油で満たされた領域とが存在してもよい。撮像領域を満たす物質が流体である場合、特に空気と液体である場合には、境界面に揺らぎが生じやすいため、本実施形態によるキャリブレーション精度の向上の効果が大きい。なお、本実施形態において領域を満たす物質とは、その3次元領域を主に構成する物質(例えば3次元領域の体積の半分以上を占める物質)を指す。 In the above description, there is a case where an air-filled region (water region) and a water-filled region (underwater region), which is a substance having a refractive index different from that of air, exist in the imaging region. Although an example has been described, the application destination of the calibration method in the present embodiment is not limited to this. For example, even when there is a region filled with air and a region filled with glass, resin, oil, or the like in the imaging region, the calibration accuracy is improved by applying the calibration method in the present embodiment. Can be made to. Further, for example, a region filled with water and a region filled with oil may exist in the imaging region. When the substance satisfying the imaging region is a fluid, particularly when it is air and a liquid, fluctuations are likely to occur at the interface, so that the effect of improving the calibration accuracy by the present embodiment is great. The substance that fills the region in the present embodiment refers to a substance that mainly constitutes the three-dimensional region (for example, a substance that occupies more than half of the volume of the three-dimensional region).
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC or the like) that realizes one or more functions. Further, the program may be recorded and provided on a computer-readable recording medium.
10 情報処理システム
110 カメラ
500 キャリブレーション部
810 マーカ
10 Information processing system 110
Claims (21)
前記複数の撮像装置のうち前記境界面に対して前記第2領域側に位置する撮像装置により取得された画像から、前記第2領域内の所定の第2オブジェクトを検出する第2検出手段と、
前記第1オブジェクトと前記第2オブジェクトの位置、及び、前記第1オブジェクトと前記第2オブジェクトの位置関係の、少なくとも何れかを示す位置情報を取得する取得手段と、
前記第1検出手段による検出結果と前記第2検出手段による検出結果と前記取得手段により取得された位置情報とに基づいて、共通の座標系における前記複数の撮像装置の位置を特定する特定手段とを有することを特徴とする情報処理装置。 Of a plurality of imaging devices that image an imaging region including at least a part of a boundary surface between the first region and a second region filled with a substance having a refractive index different from that of the substance satisfying the first region, the boundary surface A first detection means for detecting a predetermined first object in the first region from an image acquired by an imaging device located on the first region side.
A second detecting means for detecting a predetermined second object in the second region from an image acquired by the imaging device located on the second region side with respect to the boundary surface among the plurality of imaging devices.
An acquisition means for acquiring position information indicating at least one of the positions of the first object and the second object and the positional relationship between the first object and the second object.
A specific means for specifying the positions of the plurality of image pickup devices in a common coordinate system based on the detection result by the first detection means, the detection result by the second detection means, and the position information acquired by the acquisition means. An information processing device characterized by having.
前記第2検出手段は、前記第2領域内に設置された撮像装置により取得された画像から前記第2オブジェクトを検出することを特徴とする請求項1に記載の情報処理装置。 The first detection means detects the first object from an image acquired by an image pickup apparatus installed in the first region, and detects the first object.
The information processing device according to claim 1, wherein the second detection means detects the second object from an image acquired by an image pickup device installed in the second region.
前記第1検出手段による検出結果に基づいて、前記境界面に対して前記第1領域側に位置する撮像装置の第1座標系における位置を示す第1情報を取得し、
前記第2検出手段による検出結果に基づいて、前記境界面に対して前記第2領域側に位置する撮像装置の第2座標系における位置を示す第2情報を取得し、
前記取得手段により取得された位置情報に基づいて前記第1情報と前記第2情報との少なくとも何れかを変換することで、前記共通の座標系における前記複数の撮像装置の位置を特定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 The specific means
Based on the detection result by the first detection means, the first information indicating the position of the image pickup apparatus located on the first region side with respect to the boundary surface in the first coordinate system is acquired.
Based on the detection result by the second detection means, the second information indicating the position of the image pickup apparatus located on the second region side with respect to the boundary surface in the second coordinate system is acquired.
By converting at least one of the first information and the second information based on the position information acquired by the acquisition means, the positions of the plurality of imaging devices in the common coordinate system can be specified. The information processing apparatus according to any one of claims 1 to 4.
前記特定手段により用いられる前記第1検出手段による検出結果は、前記第1オブジェクトの検出結果であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。 The image acquired by the image pickup apparatus located on the first region side with respect to the boundary surface includes the first object and the second object.
The information processing apparatus according to any one of claims 1 to 10, wherein the detection result by the first detection means used by the specific means is the detection result of the first object.
前記特定手段により用いられる前記第1検出手段による検出結果は、前記第1オブジェクトの検出結果と前記第2オブジェクトの検出結果とを含むことを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。 The first detection means detects the first object and the second object from the image acquired by the image pickup device located on the first region side with respect to the boundary surface.
The detection result by the first detection means used by the specific means includes any one of claims 1 to 10, characterized in that the detection result of the first object and the detection result of the second object are included. The information processing device described.
前記第1検出手段は、前記第1撮像装置群により取得された複数の画像から前記第1オブジェクトを検出し、
前記第2検出手段は、前記第2撮像装置群により取得された複数の画像から前記第2オブジェクトを検出し、
前記特定手段は、前記第1検出手段による複数の画像からの前記第1オブジェクトの検出結果と、前記第2検出手段による複数の画像からの前記第2オブジェクトの検出結果と、前記取得手段により取得された位置情報とに基づいて、前記共通の座標系における前記複数の撮像装置の位置を特定することを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。 The plurality of imaging devices include a first imaging device group located on the first region side with respect to the boundary surface and a second imaging device group located on the second region side with respect to the boundary surface. ,
The first detection means detects the first object from a plurality of images acquired by the first imaging apparatus group, and detects the first object.
The second detection means detects the second object from a plurality of images acquired by the second imaging apparatus group, and detects the second object.
The specific means acquires the detection result of the first object from a plurality of images by the first detection means, the detection result of the second object from a plurality of images by the second detection means, and the acquisition means. The information processing apparatus according to any one of claims 1 to 13, wherein the positions of the plurality of imaging devices in the common coordinate system are specified based on the obtained position information.
前記処理手段によるキャリブレーションにより得られた情報と、前記複数の撮像装置により複数の方向から撮像することで得られる複数の画像と、仮想視点の位置及び向きを示す視点情報とに基づいて、仮想視点画像を生成する生成手段とを有することを特徴とする情報処理システム。 An image obtained by imaging an object in the first region by a group of first imaging devices located in the first region of the plurality of imaging devices, and a substance satisfying the first region among the plurality of imaging devices. Is based on an image obtained by imaging an object in the second region by a group of second imaging devices located in a second region filled with substances having different refractive indexes. Processing means for calibration and
Virtually based on the information obtained by the calibration by the processing means, the plurality of images obtained by imaging from a plurality of directions by the plurality of imaging devices, and the viewpoint information indicating the position and orientation of the virtual viewpoint. An information processing system characterized by having a generation means for generating a viewpoint image.
前記複数の撮像装置のうち前記境界面に対して前記第2領域側に位置する撮像装置により取得された画像から、前記第2領域内の所定の第2オブジェクトを検出する第2検出工程と、
前記第1オブジェクトと前記第2オブジェクトの位置、及び、前記第1オブジェクトと前記第2オブジェクトの位置関係の、少なくとも何れかを示す位置情報を取得する取得工程と、
前記第1検出工程における検出結果と前記第2検出工程における検出結果と前記取得工程において取得された位置情報とに基づいて、共通の座標系における前記複数の撮像装置の位置を特定する特定工程とを有することを特徴とする情報処理方法。 Of a plurality of imaging devices that image an imaging region including at least a part of a boundary surface between the first region and a second region filled with a substance having a refractive index different from that of the substance satisfying the first region, the boundary surface A first detection step of detecting a predetermined first object in the first region from an image acquired by an imaging device located on the first region side.
A second detection step of detecting a predetermined second object in the second region from an image acquired by the imaging device located on the second region side with respect to the boundary surface among the plurality of imaging devices.
An acquisition step of acquiring position information indicating at least one of the positions of the first object and the second object and the positional relationship between the first object and the second object.
A specific step of specifying the positions of the plurality of imaging devices in a common coordinate system based on the detection result in the first detection step, the detection result in the second detection step, and the position information acquired in the acquisition step. An information processing method characterized by having.
前記第2検出工程は、前記第2領域内に設置された撮像装置により取得された画像から前記第2オブジェクトを検出することを特徴とする請求項18に記載の情報処理装置。 In the first detection step, the first object is detected from an image acquired by an image pickup device installed in the first region.
The information processing apparatus according to claim 18, wherein the second detection step detects the second object from an image acquired by an image pickup apparatus installed in the second region.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083242A JP2020182079A (en) | 2019-04-24 | 2019-04-24 | Information processing device, information processing system, information processing method, and program |
US16/847,966 US11195321B2 (en) | 2019-04-24 | 2020-04-14 | Information processing apparatus, information processing system, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083242A JP2020182079A (en) | 2019-04-24 | 2019-04-24 | Information processing device, information processing system, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020182079A true JP2020182079A (en) | 2020-11-05 |
Family
ID=73023523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019083242A Pending JP2020182079A (en) | 2019-04-24 | 2019-04-24 | Information processing device, information processing system, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020182079A (en) |
-
2019
- 2019-04-24 JP JP2019083242A patent/JP2020182079A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102209008B1 (en) | Apparatus for estimating camera pose and method for estimating camera pose | |
CN109584307B (en) | System and method for improving calibration of intrinsic parameters of a camera | |
EP3665506B1 (en) | Apparatus and method for generating a representation of a scene | |
JP5961945B2 (en) | Image processing apparatus, projector and projector system having the image processing apparatus, image processing method, program thereof, and recording medium recording the program | |
KR102198352B1 (en) | Apparatus and method for 3d image calibration in tiled display | |
US8441518B2 (en) | Imaging apparatus, imaging control method, and recording medium | |
JP2015057876A (en) | Image processor, image processing system, image processing method, and program | |
US9295141B2 (en) | Identification device, method and computer program product | |
CN107113376A (en) | A kind of image processing method, device and video camera | |
CN106403901B (en) | A kind of buoy attitude measuring and method | |
KR101203816B1 (en) | Robot fish localization system using artificial markers and method of the same | |
WO2018154634A1 (en) | Projection display device, method for controlling projection display device, and program | |
JP2023546739A (en) | Methods, apparatus, and systems for generating three-dimensional models of scenes | |
CN105513074B (en) | A kind of scaling method of shuttlecock robot camera and vehicle body to world coordinate system | |
KR100844129B1 (en) | A paratus for interfacing a mouse using a camera image, system and method using the paratus, computer readable record medium on which a program therefore is recorded | |
EP3910451B1 (en) | Display systems and methods for aligning different tracking means | |
JP2010217984A (en) | Image detector and image detection method | |
JP2005141655A (en) | Three-dimensional modeling apparatus and three-dimensional modeling method | |
US11195321B2 (en) | Information processing apparatus, information processing system, information processing method, and storage medium | |
JP2020182079A (en) | Information processing device, information processing system, information processing method, and program | |
JP5883688B2 (en) | Installation state detection system, installation state detection device, and installation state detection method | |
CN101980299A (en) | Chessboard calibration-based camera mapping method | |
JP2002354506A (en) | Stereoscopic chart for correcting camera, acquisition method of correction parameter for camera, correcting information processing device for camera, and program thereof | |
JP2003023562A (en) | Image photographic system and camera system | |
JP2021197572A (en) | Camera control apparatus and program |