JP2020197497A - 三次元計測装置、三次元計測方法およびプログラム - Google Patents
三次元計測装置、三次元計測方法およびプログラム Download PDFInfo
- Publication number
- JP2020197497A JP2020197497A JP2019105178A JP2019105178A JP2020197497A JP 2020197497 A JP2020197497 A JP 2020197497A JP 2019105178 A JP2019105178 A JP 2019105178A JP 2019105178 A JP2019105178 A JP 2019105178A JP 2020197497 A JP2020197497 A JP 2020197497A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- image
- position information
- images
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
- G01B11/005—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/14—Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Abstract
【課題】マーカーと複数のカメラとを用いた三次元計測において、用いる画像を適切に選択することによって計測の精度を効果的に向上させる。【解決手段】マーカーが存在する三次元空間内でそれぞれ異なる位置に配置された複数のカメラが撮像した画像からマーカーが検出されている複数の画像を選択する画像選択部、複数の画像を用いて三次元空間内のマーカーの位置情報を特定するマーカー位置特定部、およびマーカー位置特定部によって特定された位置情報と複数のカメラの位置情報との関係に基づいて、複数の画像の一部を再選択する画像再選択部を備え、マーカー位置特定部は再選択された画像を用いて位置情報を再特定する三次元計測装置が提供される。【選択図】図2
Description
本発明は、三次元計測装置、三次元計測方法およびプログラムに関する。
マーカーを用いた三次元計測の技術が知られている。例えば、特許文献1には、マーカーを装着したオブジェクトを角度の異なる位置に配置した複数のカメラを用いて撮影し、マーカーの動きを三角測量の原理で計測することによってマーカーの三次元時系列位置情報を取得する技術が記載されている。
上記のような三次元計測では、多数のカメラが異なる位置から撮像した画像を用いることによって計測の精度を向上させている。しかしながら、同じくマーカーが検出されている画像であっても、例えばマーカーとの距離が適切な範囲にあるカメラの画像を追加で用いれば計測の精度は向上するが、マーカーとの距離が適切でない、例えば遠すぎるカメラの画像を追加で用いた場合、計測の精度向上には寄与しない。
そこで、本発明は、マーカーと複数のカメラとを用いた三次元計測において、用いる画像を適切に選択することによって計測の精度を効果的に向上させることが可能な三次元計測装置、三次元計測方法およびプログラムを提供することを目的とする。
本発明のある観点によれば、マーカーが存在する三次元空間内でそれぞれ異なる位置に配置された複数のカメラが撮像した画像からマーカーが検出されている複数の画像を選択する画像選択部、複数の画像を用いて三次元空間内のマーカーの位置情報を特定するマーカー位置特定部、およびマーカー位置特定部によって特定された位置情報と複数のカメラの位置情報との関係に基づいて、複数の画像の一部を再選択する画像再選択部を備え、マーカー位置特定部は再選択された画像を用いて位置情報を再特定する三次元計測装置が提供される。
本発明の別の観点によれば、マーカーが存在する三次元空間内でそれぞれ異なる位置に配置された複数のカメラが撮像した画像からマーカーが検出されている複数の画像を選択するステップ、複数の画像を用いて三次元空間内のマーカーの位置情報を特定するステップ、特定された位置情報と複数のカメラの位置情報との関係に基づいて、複数の画像の一部を再選択するステップ、および再選択された画像を用いて位置情報を再特定するステップを含む三次元計測方法が提供される。
本発明のさらに別の観点によれば、マーカーが存在する三次元空間内でそれぞれ異なる位置に配置された複数のカメラが撮像した画像からマーカーが検出されている複数の画像を選択する機能、複数の画像を用いて三次元空間内のマーカーの位置情報を特定する機能、特定された位置情報と複数のカメラの位置情報との関係に基づいて、複数の画像の一部を再選択する機能、および再選択された画像を用いて位置情報を再特定する機能をコンピュータに実現させるためのプログラムが提供される。
以下、添付図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係るシステムの概略的な構成を示す図である。図示された例において、システム10は、複数のカメラ100および三次元計測装置200を含む三次元計測システム11と、サーバー12と、クライアント13と、ヘッドマウントディスプレイ(HMD)14とを含む。複数のカメラ100は、被写体(オブジェクト)であるユーザーUに取り付けられたマーカーMを含む画像を撮像する。より具体的には、複数のカメラ100は、マーカーMが存在する三次元空間SP内でそれぞれ異なる既知の位置に配置され、三次元空間SPの画像を撮像する。複数のカメラ100が撮像した画像は、所定の時間間隔(フレーム)で更新される。三次元計測装置200は、複数のカメラ100が撮像した画像のうちマーカーMが検出されている複数の画像を用いて、三角測量の原理で三次元空間SP内のマーカーMの位置情報、具体的には例えば三次元座標を特定する。
図1は、本発明の第1の実施形態に係るシステムの概略的な構成を示す図である。図示された例において、システム10は、複数のカメラ100および三次元計測装置200を含む三次元計測システム11と、サーバー12と、クライアント13と、ヘッドマウントディスプレイ(HMD)14とを含む。複数のカメラ100は、被写体(オブジェクト)であるユーザーUに取り付けられたマーカーMを含む画像を撮像する。より具体的には、複数のカメラ100は、マーカーMが存在する三次元空間SP内でそれぞれ異なる既知の位置に配置され、三次元空間SPの画像を撮像する。複数のカメラ100が撮像した画像は、所定の時間間隔(フレーム)で更新される。三次元計測装置200は、複数のカメラ100が撮像した画像のうちマーカーMが検出されている複数の画像を用いて、三角測量の原理で三次元空間SP内のマーカーMの位置情報、具体的には例えば三次元座標を特定する。
図示された例において、三次元計測装置200によって特定されたマーカーMの位置情報はサーバー12に送信される。サーバー12は所定の手順に従って位置情報を処理し、結果として得られた情報をクライアント13に送信する。クライアント13は、この情報をさらにHMD14に送信する。マーカーMの位置情報は、ユーザーUの位置情報として扱われてもよい。さらに、例えば相互の位置関係が既知である複数のマーカーMをユーザーUに取り付け、三次元計測装置200、サーバー12、クライアント13またはHMD14がそれぞれのマーカーMの位置情報からユーザーUの位置および姿勢を推定してもよい。これらの位置および姿勢の情報によって、例えばHMD14に表示する仮想的な空間を表現した画像の視点をユーザーUの動きに追従させることができる。
図2は、図1に示したシステムにおける三次元計測装置の構成を示すブロック図である。図示された例において、三次元計測装置200は、画像選択部210と、マーカー位置特定部220と、画像再選択部230と、バッファ240と、出力値生成部250とを含む。三次元計測装置200は、例えば通信インターフェース、プロセッサ、およびメモリを有するコンピュータによって実装され、画像選択部210、マーカー位置特定部220、画像再選択部230、および出力値生成部250の機能はプロセッサがメモリに格納された、または通信インターフェースを介して受信されたプログラムに従って動作することによって実現される。また、バッファ240は、メモリ上の記憶領域として実装される。以下、各部の機能についてさらに説明する。
画像選択部210は、図1に示したようにマーカーMが存在する三次元空間SP内でそれぞれ異なる位置に配置された複数のカメラ100が撮像した画像からマーカーMが検出されている複数の画像を選択する。ここで、マーカーMは、例えば画像において所定の形状またはパターンを認識することによって検出される。マーカーMを可視光域に含まれない所定の帯域の光(例えば赤外線)を反射する材質で形成し、カメラ100が当該帯域の光の反射を検出するように構成することによって、容易に、かつ精度よく画像においてマーカーMを検出することができる。後述するように、画像選択部210は、マーカーMが検出されている画像の数や組み合わせの変化に対して、位置情報の出力を安定させるための追加の処理を実行してもよい。
マーカー位置特定部220は、画像選択部210によって選択された複数の画像を用いて三次元空間SP内のマーカーMの位置情報を特定する。マーカー位置特定部220が三角測量の原理でマーカーMの位置情報、なお、具体的には例えば三次元座標を特定する方法については既に知られているため詳細な説明は省略する。後述するように、マーカー位置特定部220は画像再選択部230によって再選択された画像を用いてマーカーMの位置情報を再特定してもよい。画像再選択部230は、例えば画像を撮像するカメラとマーカーMとの位置関係に応じて位置情報の精度向上に寄与する画像を選択するため、再特定された位置情報は元々特定されていた位置情報よりも精度が向上している。
画像再選択部230は、マーカー位置特定部220によって特定されたマーカーMの位置情報と複数のカメラ100の位置情報との関係に基づいて、画像選択部210によって選択された複数の画像を再選択する。ここで、カメラ100の位置情報は、例えば特定されるマーカーMの三次元座標と共通の座標系で定義され、設定情報として三次元計測装置200のメモリに予め格納されている。画像再選択部230による画像の再選択の具体的な例については後述する。画像再選択部230は、マーカー位置特定部220が再特定したマーカーMの位置情報と複数のカメラ100の位置情報との関係が所定の条件を満たすまで、画像の再選択を繰り返してもよい。なお、画像選択部210が選択した複数の画像が既に上記の条件を満たしている場合、画像再選択部230は画像の再選択を実行せず、マーカー位置特定部220が最初に特定した位置情報がそのままバッファ240に格納されてもよい。
バッファ240は、マーカー位置特定部220が特定(または再特定)したマーカーMの位置情報が所定の時間間隔ごとに時系列で格納される所定長さのバッファである。出力値生成部250は、バッファ240に格納された位置情報から、マーカーMの位置情報の出力値を生成する。後述するように、出力値生成部250は、バッファ240に格納された位置情報を用いて平滑化された出力値を生成してもよい。
(画像選択処理の例)
図3は、本発明の第1の実施形態における画像選択処理の例について説明するための図である。本実施形態において、複数のカメラ100が撮像した画像は、所定の時間間隔(フレームレート)ごとに更新され、画像選択部210は例えばフレームごとにマーカーMが検出されている画像を選択する。上述のように、画像選択部210は、各フレームでマーカーMが検出されている画像の数や組み合わせの変化に対して、例えば以下で説明する例のように、特定される位置情報の出力を安定させるための追加の処理を実行してもよい。図示された例では、マーカーMが検出されている画像の組み合わせC0〜C4が順次変化する場合に画像選択部210が実行する画像選択処理の例が示されている。
図3は、本発明の第1の実施形態における画像選択処理の例について説明するための図である。本実施形態において、複数のカメラ100が撮像した画像は、所定の時間間隔(フレームレート)ごとに更新され、画像選択部210は例えばフレームごとにマーカーMが検出されている画像を選択する。上述のように、画像選択部210は、各フレームでマーカーMが検出されている画像の数や組み合わせの変化に対して、例えば以下で説明する例のように、特定される位置情報の出力を安定させるための追加の処理を実行してもよい。図示された例では、マーカーMが検出されている画像の組み合わせC0〜C4が順次変化する場合に画像選択部210が実行する画像選択処理の例が示されている。
まず、組み合わせC0(マーカーMが検出されている画像の数i<閾値ith)の場合(図3の(a))、画像選択部210は画像を選択せず(N/A)、マーカー位置特定部220はマーカーMの位置情報の特定を実行しない。このようにマーカーMが検出されている画像の数iが所定の閾値ith未満である場合はマーカーMの位置情報の特定を実行しないことによって、例えば不十分な数の画像で不安定な位置情報の特定が実行されることを防止し、十分な精度が得られる場合に限ってマーカーMの位置情報を特定することができる。
なお、図1に示したシステム10では、例えばHMD14に組み込まれた慣性計測装置(IMU)による加速度や角速度などの検出結果から算出されるユーザーUの位置および姿勢と、三次元計測装置200が特定したマーカーMの位置情報に基づくユーザーUの位置および姿勢とを統合することによって、ユーザーUの位置および姿勢をリアルタイムで、かつ高精度に特定している。IMUの検出結果は三次元計測装置200におけるマーカーMの位置情報の特定の有無にかかわらず利用可能であるため、上記のように精度を理由にしてマーカーMの位置情報が特定されない間も、例えばHMD14における視点画像の表示を継続することができる。
次に、マーカーMが検出されている画像が増加した結果、組み合わせC0が組み合わせC1(マーカーMが検出されている画像の数i≧閾値ith)に変化した場合(図3の(b))、画像選択部210は画像を選択し、マーカー位置特定部220は選択された画像を用いてマーカーMの位置情報の特定を実行する。ただし、画像選択部210は、組み合わせC1の画像でマーカーMが所定の時間、具体的にはフレーム数jが第1の閾値jth1に達するまでの間にわたって継続して検出された後に、組み合わせC1の画像を選択し、マーカー位置特定部220はこの時点で位置情報の特定を実行する。このように、組み合わせC1の画像でマーカーMが継続して検出されているフレーム数jが第1の閾値jth1未満である間は画像を選択せず位置情報を特定しない状態を維持することによって、例えば短時間のうちにマーカーMが検出されている画像が閾値ithを下回って位置情報の特定が終了し、結果的に位置情報の出力が安定しなくなることを防止できる。
さらに、マーカーMが検出されている画像が増加した結果、組み合わせC1が組み合わせC2(組み合わせC1を包含する画像の組み合わせ)に変化した場合(図3の(c))、画像選択部210は選択する画像の組み合わせを組み合わせC1から組み合わせC2に変更する。ただし、画像選択部210は、組み合わせC2の画像でマーカーMが所定の時間、具体的にはフレーム数jが第2の閾値jth2に達するまでの間にわたって継続して検出された後に、組み合わせC2の画像を選択する。このように、組み合わせC2の画像でマーカーMが継続して検出されているフレーム数jが第2の閾値jth2未満である間は元の組み合わせC1の画像の選択を維持することによって、例えば短時間のうちに組み合わせC2が組み合わせC1に戻って再び選択する画像が変更され、結果的に安定しない位置情報が出力されることを防止できる。
ここで、上記の第1の閾値jth1および第2の閾値jth2は、同じ値であってもよいし、異なる値であってもよい。異なる値である場合、例えば、まだマーカー位置特定部220によるマーカーMの位置情報の特定が実行されていない場合にはできるだけ早く位置情報を得るために第1の閾値jth1を比較的小さな値にし、既に組み合わせC1の画像が選択されてマーカー位置特定部220によるマーカーMの位置情報の特定が実行されている場合には出力の安定性を重視して第2の閾値jth2を比較的大きな値にし、この結果jth1<jth2になってもよい。
続いて、マーカーMが検出されている画像が減少した結果、組み合わせC2が組み合わせC3(組み合わせC2に包含される画像の組み合わせであって、マーカーMが検出されている画像の数i≧閾値ith)に変化した場合(図3の(d))、画像選択部210は選択する画像の組み合わせを組み合わせC2から組み合わせC3に変更する。この場合、マーカーMが検出されていない画像を選択し続けることはできないため、画像選択部210はマーカーMが画像の組み合わせC3で検出されるようになった時点で選択する画像の組み合わせを変更する。
さらに、マーカーMが検出されている画像が減少した結果、組み合わせC3が組み合わせC4(組み合わせC3に包含される画像の組み合わせであって、マーカーMが検出されている画像の数i<閾値ith)に変化した場合(図3の(e))、画像選択部210は画像の選択を終了する。これによって、マーカー位置特定部220もマーカーMの位置情報の特定を終了する。この場合も、マーカーMを検出していない画像を選択し続けることはできないため、画像選択部210はマーカーMが画像の組み合わせC4で検出されるようになった時点で画像の選択を終了する。
図4は、図3を参照して説明した画像選択処理の例のフローチャートである。図示された例において、まず、画像選択部210は、マーカーMが検出されている画像の数iが閾値ith以上であるか否かを判定する(ステップS101)。画像の数iが閾値ith未満である場合、画像選択部210は画像を選択しない(ステップS102)。この処理は図3の(a),(e)の例に対応する。一方、画像の数iが閾値ith以上である場合、画像選択部210は、前のフレームとの比較でマーカーMが検出されている画像の数iが減少したか否かを判定する(ステップS103)。画像の数iが減少した場合、画像選択部210は現在の組み合わせの画像を選択する(ステップS107)。この処理は図3の(d)の例に対応する。
一方、画像の数iが閾値ith以上であり、かつ画像の数iが減少していない場合、画像選択部210は、前のフレームで画像が選択されておらず、かつ現在の画像の組み合わせでマーカーMが継続して検出されているフレーム数jが第1の閾値jth1未満であるか否かを判定する(ステップS104)。前のフレームで画像が選択されておらず、かつフレーム数jが閾値jth1未満である場合、画像選択部210は画像を選択しない(ステップS102)。この処理は図3の(b)の例で画像が選択されない間に対応する。さらに、画像選択部210は、前のフレームで画像が選択されており、かつ現在の画像の組み合わせでマーカーMが継続して検出されているフレーム数jが第2の閾値jth2未満であるか否かを判定する(ステップS105)。前のフレームで画像が選択されており、かつフレーム数jが閾値jth2未満である場合、画像選択部210は前の組み合わせの画像を選択する(ステップS106)。この処理は図3の(c)の例で画像が組み合わせC1での画像の選択が維持される間に対応する。
上記のステップS104およびステップS105の判定がいずれも当てはまらなかった場合、画像選択部210は、現在の組み合わせの画像を選択する(ステップS107)。つまり、ステップS103で画像の数iが減少していないと判定された場合で、現在の組み合わせの画像が選択されるのは、前のフレームで画像が選択されておらず、かつフレーム数jが閾値jth1以上である場合、および前のフレームで画像が選択されており、かつフレーム数jが閾値jth2以上である場合である。以上で説明したような処理を画像選択部210が例えばフレームごとに実行することによって、図3の例に示されたように画像が選択される。
(画像再選択処理の例)
図5は、本発明の第1の実施形態における画像再選択処理の例について説明するための図である。上述のように、本実施形態に係る三次元計測装置200の画像再選択部230は、マーカー位置特定部220によって特定されたマーカーMの位置情報と複数のカメラ100の位置情報との関係に基づいて、画像選択部210によって選択された複数の画像を再選択する。図示された例では、画像選択部210によって選択された複数の画像を用いてマーカー位置特定部220がマーカー位置P0を特定している。この場合、画像再選択部230は、特定されたマーカー位置P0と、予め与えられたカメラ100A〜100Fの位置情報とに基づいて、マーカー位置P0からカメラ100A〜100Fのそれぞれまでの距離dを算出し、距離dが所定の閾値dth以下であるカメラ100A〜100Eによって撮像された画像を再選択する。つまり、図示された例において、画像再選択部230は、特定された位置情報によって示されるマーカー位置P0から所定の距離dth以下に位置するカメラによって撮像された画像を再選択する。
図5は、本発明の第1の実施形態における画像再選択処理の例について説明するための図である。上述のように、本実施形態に係る三次元計測装置200の画像再選択部230は、マーカー位置特定部220によって特定されたマーカーMの位置情報と複数のカメラ100の位置情報との関係に基づいて、画像選択部210によって選択された複数の画像を再選択する。図示された例では、画像選択部210によって選択された複数の画像を用いてマーカー位置特定部220がマーカー位置P0を特定している。この場合、画像再選択部230は、特定されたマーカー位置P0と、予め与えられたカメラ100A〜100Fの位置情報とに基づいて、マーカー位置P0からカメラ100A〜100Fのそれぞれまでの距離dを算出し、距離dが所定の閾値dth以下であるカメラ100A〜100Eによって撮像された画像を再選択する。つまり、図示された例において、画像再選択部230は、特定された位置情報によって示されるマーカー位置P0から所定の距離dth以下に位置するカメラによって撮像された画像を再選択する。
一般的に、より多くの画像を用いることによって三次元計測の精度は向上するが、既に十分な数の画像が用いられている場合、オブジェクトとの距離が閾値を超えるカメラの画像を用いることは精度の向上に寄与しない。そこで、上記の例では、マーカー位置P0から所定の距離dthを超えて位置するカメラ100Fによって撮像された画像を再選択しない、つまりマーカー位置特定部220がマーカーMの位置情報を再特定するときに用いられる画像から除外することによって、再特定されるマーカーMの位置情報の精度を向上させる。なお、例えばそれぞれの画像に含まれるマーカーMの大きさからカメラとマーカーMとの距離を推定することも可能である。しかし、マーカー位置特定部220によって最初に特定されるマーカーMの位置情報の精度は向上させることが可能であるものの、当該位置情報の精度は低いわけではない。従って上記のように三次元計測の結果を利用することによってより正確にカメラとマーカーMとの距離を推定することができる。
上記の例において、画像再選択部230によって再選択された画像を用いてマーカー位置特定部220がマーカーMの位置情報を再特定した結果、再特定された位置情報によって示されるマーカー位置P1から再選択された画像を撮像するカメラ100A〜100Eまでの距離がマーカー位置P0からの距離とは変わる可能性がある。このような場合において、画像再選択部230は、マーカー位置P1からからカメラ100A〜100Eのそれぞれまでの距離dを算出し、距離dが所定の閾値dth以下であるカメラ100A〜100Eによって撮像された画像を再選択する。この結果、再選択されない画像がある場合、マーカー位置特定部220は2回目の再選択によって選択された画像を用いてマーカーMの位置情報を再特定する。一方、すべての画像が再選択された場合、その時点で最後にマーカー位置特定部220が特定(または再特定)したマーカーMの位置情報が出力としてバッファ240に格納される。このようにして、画像再選択部230は、再特定されたマーカーMの位置情報によって示されるマーカー位置Pから再選択された画像を撮像したすべてのカメラの位置までの距離dが所定の距離dth以下になるまで画像の再選択を繰り返してもよい。
図6および図7A、図7Bは、本発明の第1の実施形態における画像選択処理の別の例について説明するための図である。上記で図5を参照して説明した例では、画像再選択部230がマーカー位置P0から複数のカメラ100までの距離に応じて画像を再選択したが、図6に示す例において、画像再選択部230は、マーカー位置P0がレンズ歪みの小さい領域で捉えられるカメラによって撮像された画像を再選択する。図7Aおよび図7Bに示すように、カメラのレンズには、例えば図7Aに示されるたる型や、図7Bに示される糸巻き型といったような歪みが発生する。これらの典型的なレンズ歪みでは、画像の中央付近では歪み量が小さく、画像の端付近では歪み量が大きい。カメラが画像を撮像する段階でこれらの歪みは補正されるが、補正計算による誤差が生じるため、レンズ歪みの大きい領域でマーカーMが捉えられた画像を三次元計測に用いた場合、計測の精度が必ずしも向上しない場合があり得る。
そこで、図6に示す例では、レンズ歪みの大きい領域に対応するマスク領域RMを設定し、マーカー位置P0がマスク領域RMに含まれないカメラによって撮像された画像、すなわちマーカー位置P0がレンズ歪みの小さい領域で捉えられるカメラによって撮像された画像を再選択する。ここで、図6に示すように、レンズ歪みの影響はレンズからの距離が小さい領域RPでは小さく、レンズからの距離が大きい領域RDでは大きくなるため、マスク領域RMは、レンズからの距離が大きく、かつ画角の端縁に近い領域に設定される。上記のようなマスク領域RMを用いた画像の再選択によって、上述したようなレンズ歪みの補正計算の誤差の影響が小さい画像を選択的に用いてマーカーMの位置情報を特定することができ、位置情報の精度が向上する。
上記の図6の例でも、図5の例と同様に、画像再選択部230は、再特定されたマーカー位置Pが再選択された画像を撮像したすべてのカメラでレンズ歪みの小さい領域で捉えられるまで画像の再選択を繰り返してもよい。また、図5の例と図6の例とを組み合わせて、画像再選択部230がマーカー位置Pからカメラまでの距離とそれぞれのカメラのレンズ歪みに対応して設定されるマスク領域RMとの両方に基づいて画像を再選択してもよい。
図8は、図6を参照して説明した画像再選択処理の例のフローチャートである。図示された例では、まず、画像選択部210がマーカーMが検出されている画像を選択し(ステップS201)、マーカー位置特定部220が選択された画像を用いてマーカーの位置情報を特定する(ステップS202)。次に、画像再選択部230が、マーカーMとカメラ100との位置関係を算出する(ステップS203)。具体的には、例えば、上記で説明したように、画像再選択部230は、特定されたマーカー位置P0からカメラ100までの距離dを算出するか、またはマーカー位置P0がカメラ100のマスク領域RMに含まれるか否かを判定する。これらの位置関係が条件を満たさない、具体的には距離dが閾値dthを超えていたり、マーカー位置P0がマスク領域RMに含まれたりするカメラ100が存在する場合(ステップS204のYES)、画像再選択部230は条件を満たすカメラ100の画像を再選択し(ステップS205)、マーカー位置特定部220が再選択された画像を用いてマーカーMの位置情報を特定(再特定)する(ステップS202)。
一方、選択(または再選択)された画像について、マーカーMとの位置関係が条件を満たさないカメラ100が存在しない場合(ステップS204のNO)、すなわち画像再選択部230がその時点で選択(または再選択)されているすべての画像を再選択した場合、その時点で最後にマーカー位置特定部220が特定(または再特定)したマーカーMの位置情報が出力される(ステップS206)。ステップS202〜ステップS205の処理は、選択(または再選択)されている画像のすべてについて、マーカー位置Pとカメラ100との位置関係が条件を満たすまで繰り返される。あるいは、繰り返しの回数の上限を設定してもよい。以上で説明したような処理によって、マーカーMが検出されている画像の中から三次元計測の精度の向上に寄与する画像を選択的に用いて位置情報の精度を向上させることができる。
(バッファ処理の例)
図9は、本発明の第1の実施形態におけるバッファ処理の例について説明するための図である。本実施形態において、複数のカメラ100が撮像した画像は所定の時間間隔(フレームレート)ごとに更新され、マーカー位置特定部220も所定の時間間隔ごとにマーカーMの位置情報を特定(または再特定)する。所定の時間間隔ごとに測定された位置情報はバッファ240に時系列で格納され、出力値生成部250はバッファ240に格納された位置情報からマーカーMの位置情報の出力値を生成する。バッファ240は、例えばデータの送信や出力のために設けられる一般的なバッファとは別に設けられてもよい。図9に示された例において、マーカー位置特定部220が各フレームの画像から特定したマーカーMの位置情報vtは、サイズnのバッファ240に格納される。つまり、バッファ240には、直近のnフレーム分の位置情報vk(k=t−n+1,t−n+2,…,t−1,t)が格納される。
図9は、本発明の第1の実施形態におけるバッファ処理の例について説明するための図である。本実施形態において、複数のカメラ100が撮像した画像は所定の時間間隔(フレームレート)ごとに更新され、マーカー位置特定部220も所定の時間間隔ごとにマーカーMの位置情報を特定(または再特定)する。所定の時間間隔ごとに測定された位置情報はバッファ240に時系列で格納され、出力値生成部250はバッファ240に格納された位置情報からマーカーMの位置情報の出力値を生成する。バッファ240は、例えばデータの送信や出力のために設けられる一般的なバッファとは別に設けられてもよい。図9に示された例において、マーカー位置特定部220が各フレームの画像から特定したマーカーMの位置情報vtは、サイズnのバッファ240に格納される。つまり、バッファ240には、直近のnフレーム分の位置情報vk(k=t−n+1,t−n+2,…,t−1,t)が格納される。
例えば、出力値生成部250は、バッファ240に格納された位置情報vkのうち、直近の出力値vOUT t−1との差分|diff|=|vOUT t−1−vk|が閾値diffth以下であるという条件を満たすものの数m1が第1の閾値mth1以上である場合(図9の(a))、上記の条件を満たす位置情報vkを選択的に用いて最新の出力値vOUT tを生成してもよい。より具体的には、例えば、出力値生成部250は、条件を満たす位置情報vkの平均値を出力値vOUT tとしてもよいし、条件を満たす位置情報vkの値からカルマンフィルタなどの予測器を用いて推定された値を出力値vOUT tとしてもよい。
また、例えば、出力値生成部250は、バッファ240に格納された位置情報vkのうち、上記の条件を満たさない、すなわち直近の出力値vOUT t−1との差分|diff|が閾値diffthを超えるものが連続する数m2が第2の閾値mth2以上である場合(図9の(b))、最新の位置情報vtから最新の出力値vOUT tを生成し、さらに最新の位置情報vtでバッファ240の全体を上書きしてもよい(図9の(c))。
上述した第1の閾値mth1を用いた判定によって、位置情報vkに含まれる急峻値、具体的には例えばマーカー位置特定部220が位置情報の特定に用いる画像の組み合わせの一時的な変化や計算誤差などによって生じる飛び値が除去され、出力値vOUT tが平滑化される。一方、第2の閾値mth2を用いた判定によって、飛び値ではなく位置情報vkが実際に大きく変化した場合に、出力値vOUT tを位置情報vkに追従させることができる。第1の閾値mth1および第2の閾値mth2のそれぞれの大きさ、および第1の閾値mth1を用いた判定および第2の閾値mth2を用いた判定のどちらを優先させるかは、例えば出力値vOUT tの安定性と追従性のどちらを重視するかに応じて決定されてもよい。また、第1の閾値mth1を用いた判定および第2の閾値mth2を用いた判定のどちらによっても出力値vOUT tが生成されなかった場合、上述した例において画像選択部210が画像を選択しなかった場合と同様にマーカーMの位置情報を出力せず、例えばHMD14に組み込まれたIMUによる加速度や角速度などの検出結果からユーザーUの位置および姿勢を算出してもよい。
図10は、図9を参照して説明したバッファ処理の例のフローチャートである。図示された例では、まず、マーカー位置特定部220が、特定(または再特定)した新たな位置情報vtをバッファ240に格納する(ステップS301)。次に、出力値生成部250が、第1の閾値mth1を用いた判定、すなわち、直近の出力値vOUT t−1との差分|diff|=|vOUT t−1−vk|が閾値diffth以下である位置情報vkの数m1が第1の閾値mth1以上であるか否かの判定を実施する(ステップS302)。m1≧mth1である場合、出力値生成部250は、バッファ240に格納された条件を満たす位置情報vkから出力値vOUT tを生成する(ステップS303)。
一方、ステップS302の判定においてm1<mth1である場合、出力値生成部250は、第2の閾値mth2を用いた判定、すなわち、直近の出力値vOUT t−1との差分|diff|が閾値diffthを超えるものが連続する数m2が第2の閾値mth2以上であるか否かの判定を実施する(ステップS304)。m2≧mth2である場合、出力値生成部250は、最新の位置情報vtから最新の出力値vOUT tを生成するとともに(ステップS305)、最新の位置情報vtでバッファ240を上書きする(ステップS306)。一方、ステップS304の判定においてm2<mth2である場合、出力値生成部250は出力値vOUT tを生成しない。以上で説明したような処理によって、バッファ240を利用して出力値vOUT tの安定性および追従性を向上させることができる。
なお、第1の閾値mth1を用いた判定と第2の閾値mth2を用いた判定との順序は図10に示された例に限られず、例えば逆であってもよい。また、例えばステップS302の第1の閾値mth1を用いた判定のみを実施し、m1<mth1である場合には最新の位置情報vtを用いた処理(ステップS305およびステップS306)を実行することによって、位置情報vtが特定された場合には必ず出力値vOUT tを生成してもよい。
(第2の実施形態)
図11は、本発明の第2の実施形態に係る三次元計測装置の構成を示すブロック図である。図示された例において、三次元計測装置300は、画像選択部210と、マーカー位置特定部320と、信頼度算出部330と、マーカー位置調整部340とを含む。三次元計測装置300は、例えば通信インターフェース、プロセッサ、およびメモリを有するコンピュータによって実装され、画像選択部210、マーカー位置特定部220、信頼度算出部330、およびマーカー位置調整部340の機能はプロセッサがメモリに格納された、または通信インターフェースを介して受信されたプログラムに従って動作することによって実現される。なお、三次元計測装置300を含むシステムの構成、および画像選択部210の構成については、上記の第1の実施形態と同様であるため重複した説明は省略する。
図11は、本発明の第2の実施形態に係る三次元計測装置の構成を示すブロック図である。図示された例において、三次元計測装置300は、画像選択部210と、マーカー位置特定部320と、信頼度算出部330と、マーカー位置調整部340とを含む。三次元計測装置300は、例えば通信インターフェース、プロセッサ、およびメモリを有するコンピュータによって実装され、画像選択部210、マーカー位置特定部220、信頼度算出部330、およびマーカー位置調整部340の機能はプロセッサがメモリに格納された、または通信インターフェースを介して受信されたプログラムに従って動作することによって実現される。なお、三次元計測装置300を含むシステムの構成、および画像選択部210の構成については、上記の第1の実施形態と同様であるため重複した説明は省略する。
マーカー位置特定部320は、画像選択部210によって選択された複数の画像を用いて三次元空間SP内のマーカーMの位置情報を特定する。マーカー位置特定部320が三角測量の原理でマーカーMの位置情報、なお、具体的には例えば三次元座標を特定する方法については既に知られているため詳細な説明は省略する。本実施形態において、マーカー位置特定部320は、画像選択部210が選択した画像の全体を用いてマーカーMの位置情報を特定するのに加えて、後述するように信頼度算出部330が算出するカメラまたは画像の組み合わせごとの信頼度に従って設定される画像のグループごとにマーカーMの位置情報を再特定する。
信頼度算出部330は、画像選択部210が選択した複数の画像の組み合わせについて、三次元計測結果の信頼度rを算出する。図12は、信頼度rの算出方法について説明するための図である。図示された例では、マーカーMを検出している画像を撮像したカメラ100K〜100Nが示されている。例えば、カメラ100Kとカメラ100Lとの組み合わせについて、それぞれのカメラからマーカー位置P0に向かう直線同士がなす角度θ1と、カメラ間の距離L1とを定義することができる。同様に、カメラ100Mとカメラ100Nとの組み合わせについて、それぞれのカメラからマーカー位置P0に向かう直線同士がなす角度θ2と、カメラ間の距離L2とを定義することができる。なお、0°≦θ1,θ2≦180°である。この場合、それぞれのカメラの組み合わせ、またはカメラによって撮像される画像の組み合わせの信頼度r1,r2は、例えば以下の式(1)のように算出される。
ここで、式(1)において、Lmaxはそれぞれのカメラの組合せにおける距離の最大値、αおよびβは角度および距離のそれぞれの条件に対する重み付け係数である。式(1)は、カメラからマーカー位置P0に向かう直線同士がなす角度が90°に近く、かつカメラ間の距離がより大きい方が、信頼度が高くなることを意味する。従って、図12の例におけるカメラ100K,100Lの組み合わせの信頼度r1とカメラ100M,100Nの組み合わせの信頼度r2との間では、r1>r2になる。信頼度算出部330は、画像選択部210が選択した複数の画像の中から所定の数の画像を抽出した組み合わせのすべてについて、上記のような信頼度を算出する(例えば、x個の画像からy個の画像を抽出した場合、組み合わせの数はxCnになる)。従って、図11に示した例の場合、カメラ100Kとカメラ100Mまたはカメラ100Nとの組み合わせ、およびカメラ100Lとカメラ100Mまたはカメラ100Nとの組み合わせについても信頼度が算出される。
再び図11を参照して、マーカー位置調整部340は、信頼度算出部330が算出した信頼度に従って設定される画像のグループごとにマーカー位置特定部320が再特定したマーカーMの位置情報を用いて、最終的に出力されるマーカーMの位置情報を調整する。より具体的には、例えば、図13に示すように、マーカー位置調整部340は、信頼度が相対的に高いカメラまたは画像の組み合わせ(カメラ100Kとカメラ100Lとの組み合わせ)から特定されたマーカー位置P1と、信頼度が相対的に低いカメラまたは画像の組み合わせ(カメラ100Mとカメラ100Nとの組み合わせ)から特定されたマーカー位置P2とを統合して最終的なマーカー位置Pを決定するときに、信頼度の大きさに比例してそれぞれの位置情報を統合する。つまり、マーカー位置P1の三次元座標が(x1,y1,z1)であり、マーカー位置P2の三次元座標が(x2,y2,z2)である場合、マーカー位置Pの三次元座標(x,y,z)は以下の式(2)のように決定される。
上記のような本発明の第2の実施形態の構成によれば、より多くの画像を用いることによってマーカーMの三次元計測の精度を確保しつつ、カメラ間、または画像間で定義される信頼度に応じて位置情報の算出結果を重み付けして統合することによって、位置情報の精度をさらに向上させることができる。
以上、添付図面を参照しながら本発明のいくつかの実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10…システム、11…三次元計測システム、12…サーバー、13…クライアント、14…HMD、100…カメラ、200,300…三次元計測装置、210…画像選択部、220…マーカー位置特定部、230…画像再選択部、240…バッファ、250…出力値生成部、300…三次元計測装置、320…マーカー位置特定部、330…信頼度算出部、340…マーカー位置調整部。
Claims (11)
- マーカーが存在する三次元空間内でそれぞれ異なる位置に配置された複数のカメラが撮像した画像から前記マーカーが検出されている複数の画像を選択する画像選択部、
前記複数の画像を用いて前記三次元空間内の前記マーカーの位置情報を特定するマーカー位置特定部、および
前記マーカー位置特定部によって特定された前記位置情報と前記複数のカメラの位置情報との関係に基づいて、前記複数の画像の一部を再選択する画像再選択部
を備え、
前記マーカー位置特定部は前記再選択された画像を用いて前記位置情報を再特定する三次元計測装置。 - 前記画像再選択部は、特定された前記位置情報によって示される前記マーカーの位置から所定の距離以下に位置するカメラによって撮像された画像を再選択する、請求項1に記載の三次元計測装置。
- 前記画像再選択部は、再特定された前記位置情報によって示される前記マーカーの位置から前記再選択された画像を撮像したすべてのカメラの位置までの距離が前記所定の距離以下になるまで前記再選択を繰り返す、請求項2に記載の三次元計測装置。
- 前記画像再選択部は、特定された前記位置情報によって示される前記マーカーの位置がレンズ歪みの小さい領域で捉えられるカメラによって撮像された画像を再選択する、請求項1から請求項3のいずれか1項に記載の三次元計測装置。
- 前記画像再選択部は、再特定された前記位置情報によって示される前記マーカーの位置が前記再選択された画像を撮像したすべてのカメラでレンズ歪みの小さい領域で捉えられるまで前記再選択を繰り返す、請求項4に記載の三次元計測装置。
- 前記画像選択部は、前記マーカーが検出されている画像の数が所定の閾値未満である場合は前記複数の画像を選択せず、
前記マーカー位置特定部は、前記複数の画像が選択されない場合は前記位置情報の特定を実行しない、請求項1から請求項5のいずれか1項に記載の三次元計測装置。 - 前記複数のカメラが撮像した画像は、所定の時間間隔で更新され、
前記画像選択部は、前記マーカーが検出されている画像の組み合わせが第1の組み合わせから前記第1の組み合わせを包含する第2の組み合わせに変化し、前記第2の組み合わせの画像で前記マーカーが所定の時間にわたって継続して検出された後に、前記第2の組み合わせの画像を選択する、請求項1から請求項6のいずれか1項に記載の三次元計測装置。 - 前記複数のカメラが撮像した画像は、所定の時間間隔で更新され、
前記三次元計測装置は、
再特定された前記位置情報が前記所定の時間間隔ごとに時系列で格納されるバッファ、および
前記バッファに格納された前記位置情報のうち、直近の出力値との差分が所定の閾値以下である位置情報を選択的に用いて最新の出力値を生成する出力値生成部
をさらに備える、請求項1から請求項7のいずれか1項に記載の三次元計測装置。 - 前記出力値生成部は、前記直近の出力値との差分が前記所定の閾値を超える前記位置情報が所定の数以上連続して前記バッファに格納された場合に、最新の前記位置情報から最新の出力値を生成し、さらに最新の前記位置情報で前記バッファの全体を上書きする、請求項8に記載の三次元計測装置。
- マーカーが存在する三次元空間内でそれぞれ異なる位置に配置された複数のカメラが撮像した画像から前記マーカーが検出されている複数の画像を選択するステップ、
前記複数の画像を用いて前記三次元空間内の前記マーカーの位置情報を特定するステップ、
前記特定された前記位置情報と前記複数のカメラの位置情報との関係に基づいて、前記複数の画像の一部を再選択するステップ、および
前記再選択された画像を用いて前記位置情報を再特定するステップ
を含む三次元計測方法。 - マーカーが存在する三次元空間内でそれぞれ異なる位置に配置された複数のカメラが撮像した画像から前記マーカーが検出されている複数の画像を選択する機能、
前記複数の画像を用いて前記三次元空間内の前記マーカーの位置情報を特定する機能、
前記特定された前記位置情報と前記複数のカメラの位置情報との関係に基づいて、前記複数の画像の一部を再選択する機能、および
前記再選択された画像を用いて前記位置情報を再特定する機能
をコンピュータに実現させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019105178A JP2020197497A (ja) | 2019-06-05 | 2019-06-05 | 三次元計測装置、三次元計測方法およびプログラム |
US16/880,369 US11156451B2 (en) | 2019-06-05 | 2020-05-21 | Three-dimensional measurement device, three-dimensional measurement method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019105178A JP2020197497A (ja) | 2019-06-05 | 2019-06-05 | 三次元計測装置、三次元計測方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020197497A true JP2020197497A (ja) | 2020-12-10 |
Family
ID=73649183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019105178A Pending JP2020197497A (ja) | 2019-06-05 | 2019-06-05 | 三次元計測装置、三次元計測方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11156451B2 (ja) |
JP (1) | JP2020197497A (ja) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4976756B2 (ja) * | 2006-06-23 | 2012-07-18 | キヤノン株式会社 | 情報処理方法および装置 |
GB2506411B (en) * | 2012-09-28 | 2020-03-11 | 2D3 Ltd | Determination of position from images and associated camera positions |
JP6435750B2 (ja) * | 2014-09-26 | 2018-12-12 | 富士通株式会社 | 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム |
JP6507730B2 (ja) * | 2015-03-10 | 2019-05-08 | 富士通株式会社 | 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム |
JP6485964B2 (ja) | 2015-09-10 | 2019-03-20 | オプティトラック・ジャパン株式会社 | モーションキャプチャー方法及びモーションキャプチャーシステム |
JP2019087791A (ja) * | 2017-11-01 | 2019-06-06 | キヤノン株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
KR101930796B1 (ko) * | 2018-06-20 | 2018-12-19 | 주식회사 큐픽스 | 이미지를 이용한 3차원 좌표 계산 장치, 3차원 좌표 계산 방법, 3차원 거리 측정 장치 및 3차원 거리 측정 방법 |
JP7179515B2 (ja) * | 2018-07-13 | 2022-11-29 | キヤノン株式会社 | 装置、制御方法、及びプログラム |
GB2582315B (en) * | 2019-03-19 | 2023-05-17 | Sony Interactive Entertainment Inc | Method and system for generating an image |
GB2583535B (en) * | 2019-05-03 | 2021-11-10 | Sony Interactive Entertainment Inc | Data processing |
-
2019
- 2019-06-05 JP JP2019105178A patent/JP2020197497A/ja active Pending
-
2020
- 2020-05-21 US US16/880,369 patent/US11156451B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11156451B2 (en) | 2021-10-26 |
US20200386537A1 (en) | 2020-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942488B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
US9767563B2 (en) | Image processing apparatus and method for obtaining position and orientation of imaging apparatus | |
CN109891189B (zh) | 策划的摄影测量 | |
JP5538667B2 (ja) | 位置姿勢計測装置及びその制御方法 | |
WO2020215898A1 (zh) | 三维重建方法及装置、系统、模型训练方法、存储介质 | |
JP6503906B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6464938B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US10957068B2 (en) | Information processing apparatus and method of controlling the same | |
CN115509352A (zh) | 使用传感器融合的经优化对象扫描 | |
JP2008275341A (ja) | 情報処理装置、情報処理方法 | |
KR101875047B1 (ko) | 사진측량을 이용한 3d 모델링 시스템 및 방법 | |
JP2021106025A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2016040520A (ja) | 物体検出装置 | |
JP2021060868A5 (ja) | ||
JP6552266B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
CN110428461B (zh) | 结合深度学习的单目slam方法及装置 | |
WO2022142908A1 (zh) | 三维模型生成方法、xr设备及存储介质 | |
CN113610702B (zh) | 一种建图方法、装置、电子设备及存储介质 | |
JP2023109570A (ja) | 情報処理装置、学習装置、画像認識装置、情報処理方法、学習方法、画像認識方法 | |
JP4559375B2 (ja) | 対象物位置追跡方法、装置、およびプログラム | |
JP6719945B2 (ja) | 情報処理装置、情報処理方法、情報処理システム及びプログラム | |
JP5530391B2 (ja) | カメラポーズ推定装置、カメラポーズ推定方法及びカメラポーズ推定プログラム | |
JP2019012497A (ja) | 部位認識方法、装置、プログラム、及び撮像制御システム | |
JP2015005220A (ja) | 情報表示装置及び情報表示方法 |