JP2015118101A - 情報処理装置および方法、プログラム - Google Patents
情報処理装置および方法、プログラム Download PDFInfo
- Publication number
- JP2015118101A JP2015118101A JP2015018883A JP2015018883A JP2015118101A JP 2015118101 A JP2015118101 A JP 2015118101A JP 2015018883 A JP2015018883 A JP 2015018883A JP 2015018883 A JP2015018883 A JP 2015018883A JP 2015118101 A JP2015118101 A JP 2015118101A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- index
- viewpoint
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 45
- 238000000034 method Methods 0.000 title description 114
- 238000003384 imaging method Methods 0.000 claims abstract description 144
- 238000004364 calculation method Methods 0.000 claims abstract description 63
- 238000003672 processing method Methods 0.000 claims 2
- 238000012545 processing Methods 0.000 abstract description 10
- 230000036544 posture Effects 0.000 description 105
- 239000013598 vector Substances 0.000 description 100
- 238000005259 measurement Methods 0.000 description 66
- 238000011156 evaluation Methods 0.000 description 44
- 230000008569 process Effects 0.000 description 36
- 230000000007 visual effect Effects 0.000 description 34
- 230000005484 gravity Effects 0.000 description 25
- 238000012937 correction Methods 0.000 description 20
- 239000003550 marker Substances 0.000 description 18
- 239000011159 matrix material Substances 0.000 description 17
- 230000009466 transformation Effects 0.000 description 17
- 238000000605 extraction Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 238000012986 modification Methods 0.000 description 14
- 230000004048 modification Effects 0.000 description 14
- 238000005457 optimization Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000002939 conjugate gradient method Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 238000002940 Newton-Raphson method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Abstract
Description
本実施形態に係る情報処理装置では、現実空間上に存在する指標の撮影画像を用いて、指標の配置情報を算出する。以下、本実施形態に係る情報処理装置について説明する。
指標配置情報算出部1060は、画像使用判定部1050で使用すると判定された画像を用いて指標の配置情報を算出する。
θAB>θTAB ・・・(1−4)
であるときには、第m−1フレームと現在取得されている画像との間に十分に大きな視差があるとして、取得された画像を第mフレームとして使用すると判定する。ここでθTABは、閾値である。評価量θABが閾値θTABより大きいということは、検出した指標群を第mフレームと第m−1フレームにおいて異なる視点から撮影していることを意味する。閾値θTABは、指標の三次元空間中での分布や配置する環境に応じて任意に変更してもよい。例えば、室内における場合など、撮影可能な範囲が制限されるため場合には、θTABを小さくする。しかし、閾値θTABを小さくすると、視差が小さくなるため計測結果の精度は低下する。計測結果の精度が低下するのを防ぐには、使用する画像の枚数を増やしたり高解像度のカメラを使用したりすればよい。
α<αT1,またはαT2<α(但し、αT1,<αT2とする) ・・・(1−5)
であるとき取得された画像を第mフレームとして使用すると判定し、そうでない場合使用しないと判定する。ここでαT1、αT2、は閾値である。第2の評価量が上記の条件を満たすということは、検出した指標群に対する撮影距離が第mフレームと第m−1フレームとで異なっていることを意味する。
u=F(s,a)・・・(1−6)
第1の実施形態では、第m−1フレームを撮影した時点での撮影部の位置Cm−1と第m−1フレーム中で検出された指標群の重心位置Gm−1とを結ぶベクトルを
第1の実施形態では、指標の配置情報または撮影部の位置及び姿勢を求めたが、撮影部の内部パラメータを計測対象として算出してもよい。
本実施形態では、第1の評価量θABを第m−1フレームを撮影した時点での撮影部の位置Cm−1と第m−1フレーム中で検出された指標群の重心位置Gm−1とを結ぶベクトル
θABq>θTAB ・・・(1−20)
である場合には取得された画像を使用すると判定し、そうでない場合使用しないと判定する。ここでθTABは、閾値である。評価量θABqが閾値θTABより大きいということは、検出した指標群に対して第mフレームと第qフレームが異なる視点から撮影していることを意味する。閾値θTABは、指標の分布や配置する環境に応じて任意に変更してもよい。
本実施形態では、すでに使用すると判定された画像のうち、同一の位置及び姿勢の撮影装置から撮影された画像を排除または更新することはしていなかった。しかし、同一の位置及び姿勢の撮影装置からのは、指標の配置情報の計測精度を向上させる情報を持たないため必要ない。そのため、同一の位置及び姿勢で撮影された画像は、排除または更新するべきである。そこでほぼ同一の位置及び姿勢からの撮影を排除または更新する処理について以下で説明する。
θTCD<θCDi・・・(1−23)
vm=Rm・ty ・・・(1−26)
vj=Rj・ty ・・・(1−27)
θmj<θmj(j=1、2、・・・J) ・・・(1−29)
であるとき、その取得された画像は同一視点位置かつ同一姿勢から第jフレームにおいてすでに撮影されていることを意味し、その画像は使用しない。
γmj>γTmj ・・・(1−30)
であるとき、その取得された画像は同一視点位置かつ同一姿勢から撮影されているが、視軸周りに回転して撮影されているため、その画像は使用すると判定する。そうでない場合は使用しないと判定する。ここでγmjは閾値である。
非特許文献4では、指標の先験的知識を利用して、指標に拘束条件をつけて非線形最適化を行っている。本実施形態では、画像を自動で取得しているので、未知の指標に対しては幾何拘束条件をつけて算出することはできない。しかし、あらかじめ指標が平面上にあることがわかっている場合など、幾何拘束条件が予めわかっている場合には、幾何拘束条件をつけて非線形最適化を行ってもよい。
なお、指標の配置情報計測のために画像を使用するか否かの判定は、次に示す評価量を用いて行ってもよい。すでに未知パラメータの算出に使用すると判定されている画像のフレーム番号を1、2、・・・、m−1、とし、取得された画像を第mフレームとして使用するかどうかの判定を行う。
第1の実施形態では、計測対象指標までの距離を考慮するために、各指標の3次元空間中における重心位置に基づいて評価量を求め、指標の配置情報計測に画像を使用するか否かの判定を行っていた。第m−1フレームを撮影した時点での撮影部の位置Cm−1と第m−1フレーム中で検出された指標群の重心位置Gm−1とを結ぶベクトルと、取得された画像を撮影した時点での撮影部の位置Cmと重心位置Gm−1とを結ぶベクトルに基づいて評価量を求めていた。しかし、指標の代表位置は各指標位置の重心位置によって求めるのではなく、撮影部が撮影する範囲の中心方向を表す視軸上で代表位置を求めてもよい。検出した各指標の3次元空間中における概略位置よりカメラ座標系における奥行きを求め、各指標の奥行きの平均値をzmeanとする。カメラ座標系における指標の代表位置をtam=(0,0,zmean)とする。撮影部のおおよその位置及び姿勢は撮影部位置姿勢情報取得部1040より得ることができるので、カメラ座標系における指標の代表位置tamを基準座標系の位置に座標変換する。そして座標変換後の代表位置をt’amとする。本実施形態で用いた代表位置である重心位置の変わりにt’amを用いてもよい。
第1の実施形態では、環境または物体に配置された指標の配置情報の計測のための画像利用判定を行い、該計測を行った。第2の実施形態では、姿勢センサのカメラ座標系における姿勢を算出するために使用する画像を自動で判定し、撮影部に装着した姿勢センサのカメラ座標系における姿勢を算出する。
tm=Rm・tz・・・ (2−2)
vm=Rm・ty・・・ (2−3)
vj=Rj・ty・・・ (2−4)
θmj>θTmj(j=1、2、・・・J) ・・・(2−6)
であるとき、その取得された画像はまだ撮影されていない視点方向から撮影された画像であるとして、その画像を使用すると判定する。ここでθTmjは閾値である。式(2−6)が満たされない場合、取得された画像は同一姿勢で撮影されている可能性を表し、第2の評価量をもとに取得された画像を使用するかどうかの判定を行う。
γmj>γTmj ・・・(2−7)
であるとき、取得された画像は同一視点方向から撮影されているが、視軸周りに回転して撮影されていることを意味し、その画像を使用すると判定する。ここでγTmJは閾値である。式(2−7)が満たされない場合、取得された画像を姿勢センサの姿勢算出に使用しないと判定する。
u=F(s) ・・・(2−9)
△u=v−u ・・・(2−10)
s+△s→s ・・・(2−13)
第1の実施形態では、計測対象として指標の配置情報または撮影部の位置及び姿勢を求めた。さらに第2の実施形態では、計測対象として3自由度姿勢センサのカメラ座標系における姿勢を求めた。本実施形態では、6自由度位置姿勢センサが規定するセンサ座標系の基準座標系に対する位置及び姿勢及び撮影部に装着した6自由度位置姿勢センサの撮影部に対する位置及び姿勢を未知パラメータとして求める。本実施形態では、第1及び第2の実施形態で述べた指標と同じ指標を用いる。
MCM=MCS・(MTS)−1・(MwT)−1・MwM ・・・(3−3)
と表される。
u=F(s)・・・ (3−1)
s+△s→s ・・・(2−14)
なお、第1至乃第3の実施形態においては、最適化演算において非線形関数をテーラー展開し、1次近似で線形化してから補正値を求めることを、繰り返し補正することで最適解を求めるNewton−Raphson法を用いている。しかし、補正値の算出は必ずしもNewton−Raphson法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLevenberg−Marquardt法を用いて求めてもよいし、最急降下法を用いても求めてもよい。他の何れの非線形最適化手法を適用しても本発明の本質が損なわれないことは言うまでもない。
第1至乃第3の実施形態では、指標を撮影した画像を用いて未知パラメータを算出するのに必要となる画像を自動で判定するための方法を述べた。
本実施形態では、良好な計測を行うために、次に撮影すべき画像撮影領域を算出し、移動を促す文字や矢印により、ディスプレイを通してユーザに提示した。しかし、提示するのは、移動を促す文字や矢印ではなくてもよい。図14に示すような画像撮影領域自身や、図15の(B)に示すような次に撮影すべき撮影部の位置及び姿勢や向きを、仮想的なCG(コンピュータグラフィック画像)を重畳描画して提示してもよい。提示方法は、次に撮影すべき位置や方向、またはまだ撮影可能なエリアを提示できれば、パターン画像であってもよいし、線分で表示した3次元CG画像でもよいし、文字でもよい。
第2の実施形態では、指標を撮影した画像を用いて未知パラメータを算出するのに必要となる画像を自動で判定するための方法を述べた。
VK=Rj・Ty ・・・(5−1)
本実施形態では、未知パラメータは撮影部に装着した姿勢センサの姿勢として、未知パラメータ算出のために必要となる画像の撮影領域の提示をおこなった。しかし、計測対象を6自由度センサとした場合にも同様の画像撮影領域の算出方法が利用でき、ユーザに画像撮影領域を提示することができる。そして第3の実施形態で示したように、撮影部に装着した6自由度センサのレシーバの位置姿勢、及び6自由度センサの基準座標系における位置及び姿勢を未知パラメータとして算出することができる。
第1至乃第4の実施形態において、未知パラメータを算出するために必要な画像を自動で取得していた。しかし、オペレータが必要であると判断した場合には、例えばキーボードを押すなど何らかの入力装置を介して、手動により画像を取得してもよい。
本実施形態に係る情報処理装置は、ユーザが複合現実感を体験しつつ、第1至乃第5の実施形態に記載の未知パラメータを算出するために必要な画像をオンラインで取得し、得られた算出結果を反映するものである。また、本実施形態に係る情報処理装置は、ビデオシースルー(Video See−Through)型のヘッドマウントディスプレイ(HMD)を用いて、未知パラメータを算出するために必要となる画像の撮影領域をユーザへと提示する。
本実施形態では、ビデオシースルー(Video See−Through)型のヘッドマウントディスプレイ(HMD)に未知パラメータを算出するために必要となる画像の撮影領域を提示した。しかし、ユーザに情報を提示するディスプレイはこれに限らない。例えば、CRTや液晶ディスプレイであってもよいし、光学シースルー(Optical See−Through)型のヘッドマウントディスプレイであってもよい。公知のいずれのディスプレイを用いても本発明の本質が損なわれないことはいうまでもない。
なお、第1至乃第5における未知パラメータを算出するための計算と、一般的な複合現実感を体験する際の計算を分けて計算してもよい。前者は、第1至乃第5における未知パラメータを算出するために必要な画像をオンラインで判定し、未知パラメータを算出する計算である。後者は、ユーザが複合現実感を体験時にする際に一般的に計算される撮影部の位置及び姿勢の算出やCG(Computer Graphics)の描画などの計算である。
第2の実施形態では、撮影部に装着した姿勢センサのカメラ座標系における姿勢を算出する目的において、指標の観測によって求めた撮影部の位置姿勢に基づいて姿勢の算出に使用する画像を自動で判定した。本実施形態では、姿勢センサのカメラ座標系における姿勢を算出するために使用する画像を、姿勢センサの出力値に基づいて自動で判定する。
△φmj>φthreshold ・・・(7−4)
であるとき、その取得された画像はまだ撮影されていない姿勢で撮影された画像であるとして、その画像を使用すると判定する。ここでφthresholdは閾値である。
本実施形態では、画像を使用するかどうかの判定のための評価量を算出する際に方位角成分を除外し、傾斜角成分のみを用いて判定した。しかし、姿勢センサがドリフト誤差の影響を無視できるような比較的高精度な計測を行うことができるのであれば、方位角成分を除外せずに評価量を算出して、撮影部に装着した姿勢センサの配置情報を算出するための画像を判定してもよい。
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
Claims (12)
- 撮像装置の視点及び/または撮像方向を変更して現実空間を撮像した複数の画像を取得する取得手段と、
前記複数の画像の少なくとも一部を用いて、前記撮像装置による撮像に関わるパラメータを算出する算出手段と、
前記算出手段による算出に用いる画像を撮像すべき前記撮像装置の視点または撮像方向を判定する判定手段と、
前記判定手段により判定された撮像すべき前記視点または撮像方向をユーザに報知する報知手段と
を有することを特徴とする情報処理装置。 - 前記判定手段は、既に画像が撮像された視点または撮像方向に基づいて、次に撮影すべき視点または撮像方向を判定することを特徴とする請求項1に記載の情報処理装置。
- 前記判定手段は、既に画像が撮像された視点または撮像方向と所定の以上の差異を有する視点または撮像方向を、次に撮影すべき視点または撮像方向と判定することを特徴とする請求項2に記載の情報処理装置。
- 前記報知手段は、前記撮影すべき視点または撮像方向、もしくは当該撮影すべき視点または撮像方向への前記撮像装置の移動方向または移動量を前記ユーザに指示する文字列を出力することを特徴とする請求項1に記載の情報処理装置。
- 前記報知手段は、前記撮影すべき視点または撮像方向、もしくは当該撮影すべき視点または撮像方向への前記撮像装置の移動方向または移動量を示す図形を表示することを特徴とする請求項1に記載の情報処理装置。
- 前記報知手段は、前記図形を、前記現実空間を撮像した画像に重畳して表示することを特徴とする請求項5に記載の情報処理装置。
- 前記判定手段により判定された撮影すべき視点または撮像方向が複数ある場合に、前記報知手段は、当該複数の撮影すべき視点または撮像方向の中から、前記撮像装置の現在位置に基づいて視点または撮像方向を選択して報知することを特徴とする請求項1に記載の情報処理装置。
- 前記判定手段により判定された撮影すべき視点または撮像方向が複数ある場合に、前記報知手段は、当該複数の撮影すべき視点または撮像方向の中から、前記撮像装置の動きに基づいて視点または撮像方向を選択して報知することを特徴とする請求項1に記載の情報処理装置。
- 前記算出手段は、前記現実空間に存在する指標の位置を算出することを特徴とする請求項1に記載の情報処理装置。
- 前記算出手段は、前記撮像装置に備わるセンサの該撮像装置に対する配置を算出することを特徴とする請求項1に記載の情報処理装置。
- 取得手段が、撮像装置の視点及び/または撮像方向を変更して現実空間を撮像した複数の画像を取得する取得工程と、
算出手段が、前記複数の画像の少なくとも一部を用いて、前記撮像装置による撮像に関わるパラメータを算出する算出工程と、
判定手段が、前記算出工程による算出に用いる画像を撮像すべき前記撮像装置の視点または撮像方向を判定する判定工程と、
報知手段が、前記判定工程により判定された撮像すべき前記視点または撮像方向をユーザに報知する報知工程と
を有することを特徴とする情報処理方法。 - 請求項11に記載の情報処理方法をコンピュータに実行させることを特徴とするコンピュータ読み取り可能なプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015018883A JP6109213B2 (ja) | 2015-02-02 | 2015-02-02 | 情報処理装置および方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015018883A JP6109213B2 (ja) | 2015-02-02 | 2015-02-02 | 情報処理装置および方法、プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011192852A Division JP5726024B2 (ja) | 2011-09-05 | 2011-09-05 | 情報処理方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015118101A true JP2015118101A (ja) | 2015-06-25 |
JP6109213B2 JP6109213B2 (ja) | 2017-04-05 |
Family
ID=53530914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015018883A Active JP6109213B2 (ja) | 2015-02-02 | 2015-02-02 | 情報処理装置および方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6109213B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017053724A (ja) * | 2015-09-09 | 2017-03-16 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
WO2023181887A1 (ja) * | 2022-03-24 | 2023-09-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9159133B2 (en) * | 2012-11-05 | 2015-10-13 | Qualcomm Incorporated | Adaptive scale and/or gravity estimation |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001036898A (ja) * | 1999-07-22 | 2001-02-09 | Hitachi Ltd | パノラマ映像生成用カメラシステム |
JP2003065714A (ja) * | 2001-08-21 | 2003-03-05 | Sony Corp | カメラ・キャリブレーションのためのガイド装置及びガイド方法、並びに、カメラ・キャリブレーション装置 |
JP2004110479A (ja) * | 2002-09-19 | 2004-04-08 | Topcon Corp | 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末 |
JP2005515910A (ja) * | 2002-01-31 | 2005-06-02 | ブレインテック カナダ インコーポレイテッド | シングルカメラ3dビジョンガイドロボティクスの方法および装置 |
JP2005326275A (ja) * | 2004-05-14 | 2005-11-24 | Canon Inc | 情報処理方法および装置 |
JP2005332177A (ja) * | 2004-05-19 | 2005-12-02 | Etsuji Kitagawa | 3次元情報処理装置、3次元情報処理方法、及び3次元情報処理プログラム |
-
2015
- 2015-02-02 JP JP2015018883A patent/JP6109213B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001036898A (ja) * | 1999-07-22 | 2001-02-09 | Hitachi Ltd | パノラマ映像生成用カメラシステム |
JP2003065714A (ja) * | 2001-08-21 | 2003-03-05 | Sony Corp | カメラ・キャリブレーションのためのガイド装置及びガイド方法、並びに、カメラ・キャリブレーション装置 |
JP2005515910A (ja) * | 2002-01-31 | 2005-06-02 | ブレインテック カナダ インコーポレイテッド | シングルカメラ3dビジョンガイドロボティクスの方法および装置 |
JP2004110479A (ja) * | 2002-09-19 | 2004-04-08 | Topcon Corp | 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末 |
JP2005326275A (ja) * | 2004-05-14 | 2005-11-24 | Canon Inc | 情報処理方法および装置 |
JP2005332177A (ja) * | 2004-05-19 | 2005-12-02 | Etsuji Kitagawa | 3次元情報処理装置、3次元情報処理方法、及び3次元情報処理プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017053724A (ja) * | 2015-09-09 | 2017-03-16 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
WO2023181887A1 (ja) * | 2022-03-24 | 2023-09-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6109213B2 (ja) | 2017-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4976756B2 (ja) | 情報処理方法および装置 | |
US7529387B2 (en) | Placement information estimating method and information processing device | |
JP4136859B2 (ja) | 位置姿勢計測方法 | |
JP5036260B2 (ja) | 位置姿勢算出方法及び装置 | |
JP6011548B2 (ja) | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム | |
US10930008B2 (en) | Information processing apparatus, information processing method, and program for deriving a position orientation of an image pickup apparatus using features detected from an image | |
JP6338021B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN104160426B (zh) | 图像处理装置和图像处理方法 | |
US20120262455A1 (en) | Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium | |
US20050253870A1 (en) | Marker placement information estimating method and information processing device | |
JP4956456B2 (ja) | 画像処理装置、画像処理方法 | |
JP2006099188A (ja) | 情報処理方法および装置 | |
JP2005326275A (ja) | 情報処理方法および装置 | |
JP6762913B2 (ja) | 情報処理装置、情報処理方法 | |
JP2008176509A (ja) | 情報処理装置および方法 | |
JP2013113805A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP5726024B2 (ja) | 情報処理方法および装置 | |
JP6109213B2 (ja) | 情報処理装置および方法、プログラム | |
JP2003269913A (ja) | センサ較正装置、センサ較正方法、プログラム、記憶媒体 | |
JP2005351886A (ja) | 位置姿勢計測方法および情報処理装置 | |
JP2021009557A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2005326283A (ja) | 位置姿勢計測方法および情報処理装置 | |
JP4810403B2 (ja) | 情報処理装置、情報処理方法 | |
WO2021111613A1 (ja) | 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム | |
WO2017125983A1 (en) | Information processing apparatus, information processing method, and program for estimating position and orientation of a camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170307 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6109213 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |