JP4926817B2 - 指標配置情報計測装置および方法 - Google Patents

指標配置情報計測装置および方法 Download PDF

Info

Publication number
JP4926817B2
JP4926817B2 JP2007131573A JP2007131573A JP4926817B2 JP 4926817 B2 JP4926817 B2 JP 4926817B2 JP 2007131573 A JP2007131573 A JP 2007131573A JP 2007131573 A JP2007131573 A JP 2007131573A JP 4926817 B2 JP4926817 B2 JP 4926817B2
Authority
JP
Japan
Prior art keywords
index
image
identification
arrangement information
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007131573A
Other languages
English (en)
Other versions
JP2008065807A (ja
Inventor
大輔 小竹
和樹 武本
憲司 守田
その子 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007131573A priority Critical patent/JP4926817B2/ja
Priority to US11/836,085 priority patent/US8081815B2/en
Publication of JP2008065807A publication Critical patent/JP2008065807A/ja
Application granted granted Critical
Publication of JP4926817B2 publication Critical patent/JP4926817B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、3次元空間中に配置した指標の配置情報を求めるための処理に関する。
近年、複合現実感(Mixed Reality;MR)技術の研究が盛んである。MR技術は、現実空間とコンピュータによって作られる仮想空間を継ぎ目なく融合する技術である。MR技術の中でも、現実空間に仮想空間を重ね合わせて表示するAugmented Reality(AR、拡張現実感、増強現実感とも呼ばれる)技術が特に注目を集めている。
ARの画像表示装置には、ビデオシースルー方式と光学シースルー方式とがある。ビデオシースルー方式の画像表示装置は、撮像装置によって撮影された現実空間の画像に、該撮像装置の位置及び姿勢に応じて生成された仮想空間(コンピュータグラフィクスにより描画された仮想物体や文字情報等)の画像を重畳描画した合成画像を表示する。光学シースルー方式の画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成された仮想空間の画像を表示する。
AR技術は、患者の体表面に体内の様子を重畳表示する手術支援や、空き地に仮想のビルを重畳表示する建築シミュレーション、組み立て作業時に作業手順や配線の様子を重畳表示する組み立て支援等様々な分野への応用が期待される。
AR技術において最も重要な課題の一つは、現実空間と仮想空間の間の位置合わせをいかに正確に行うかということであり、従来より多くの取り組みが行われてきた。ARにおける位置合わせの問題は、ビデオシースルー方式の場合はシーン中における(すなわちシーン中に規定された基準座標系における)撮像装置の位置及び姿勢を求める問題に帰結する。同様に、光学シースルー方式の場合は、シーン中における観察者の視点あるいはディスプレイの位置及び姿勢を求める問題に帰結する。
ビデオシースルー方式の問題を解決する方法として、シーン中に配置された複数の指標を用いて計測対象物の位置及び姿勢を求めることが一般的に行われている。具体的には、撮影画像内における指標の投影位置と、既知の情報である指標の基準座標系における位置との対応関係から、基準座標系における撮像装置の位置及び姿勢を求める。
また、光学シースルー方式の問題を解決する方法として、計測対象物(すなわち観察者の頭部あるいはディスプレイ)に撮像装置を装着する。そして、ビデオシースルー方式と同様な方法によって撮像装置の位置及び姿勢を求める。
画像上の指標の投影像とその指標の3次元位置との対応をもとに撮像装置の位置及び姿勢を求める方法は、写真測量の分野において古くから提案されている(例えば、非特許文献1を参照)。また、前述の画像上の指標の投影像をもとに求めた撮像装置の位置及び姿勢を初期値とし、撮像装置の位置及び姿勢を最適化することが行われている。最適化は、画像上での指標の投影像の実際の観察位置と、投影像の計算位置、すなわち指標の3次元位置と撮像装置の位置及び姿勢から計算される投影像の位置との誤差が最小になるように反復演算する(例えば、非特許文献2を参照)。以上の方法によって、撮像装置が撮影した画像に基づいて、該撮像装置の位置及び姿勢を求めることが従来からなされてきた。
一方、例えば特許文献1、2や非特許文献3で開示されているように、計測対象である撮像装置に磁気センサや超音波センサなどの6自由度位置姿勢センサを取り付け、前述のような画像処理による指標の検出との併用によって位置及び姿勢を計測することも行われている。センサの出力値は測定範囲によって精度は変わるが安定的に得ることができるため、センサと画像処理を併用する方法は、画像処理だけによる方法に比べてロバスト性を向上させることができる。特許文献2では、6自由度位置姿勢センサから得られる撮像装置の位置及び姿勢を初期値として、前述の画像上での指標の投影像の観察位置と計算位置との誤差を反復演算によって最小化することによって、撮像装置の位置及び姿勢を得ている。
発明の背景で述べた指標を利用した位置合わせ手法では、計測対象である撮像装置の基準座標系における位置及び姿勢を求めるために、以下の情報が必要であった。空間中に存在する同一色の円領域といった点形状の指標(以下、点指標)の場合には、その重心の基準座標系における位置と基準座標系に対する指標の姿勢が既知である必要がある。三角形や正方形といった多角形形状の指標の場合には、その重心の基準座標系における位置と,基準座標系に対する指標の姿勢が既知である必要がある。正方形指標などの多角形形状の指標の場合には、基準座標系を別途設けることなく、指標そのものを座標系の基準とする場合が多い。ただし、複数の多角形形状の指標を用いる場合には、互いの位置及び姿勢の関係が既知である必要があるため、基準座標系が必要である。
指標の位置及び姿勢の計測は、巻尺や分度器を用いた手作業や、測量器によって行うことが可能であるが、精度や手間の問題から、画像を利用した計測が行われている。点指標の位置計測は、バンドル調整法と呼ばれる方法で行うことができる。バンドル調整法は、以下のような処理を用いて点指標の位置を求める。撮像装置によって撮影された点指標の多数の画像を取得する。画像上での点指標の投影像の観察位置と、該点指標の3次元位置及び撮像装置の位置姿勢をもとに計算される該点指標の投影像の計算位置との誤差(投影誤差)が最小になるように、点指標の位置と撮像装置の位置姿勢を補正を繰り返し行う。
また、非特許文献4では、3次元空間中に配置された多数の正方形指標の位置及び姿勢を計測する方法が開示されている。非特許文献4では、3次元空間中に配置された多数の正方形指標の画像を多数撮影し、投影誤差が最小になるように、繰返し演算によって各画像を撮影した撮像装置の位置及び姿勢と、正方形指標の位置及び姿勢を求めている。
特開平11−084307号公報 特開2000−041173号公報 R.M.Haralick,C.Lee,K.Ottenberg,and M.Nolle:"Review and Analysis of Solutions of the Three Point Perspective Pose Estimation Problem",Int’l.J.ComputerVision,vol.13,no.3,pp.331−356,1994. 加藤,M.Billinghurst,浅野,橘:"マーカー追跡に基づく拡張現実感システムとそのキャリブレーション",日本バーチャルリアリティ学会論文誌,vol.4,no.4,pp.607−616,1999. A.State,G.Hirota,D.T.Chen,W.F.Garrett and M.A.Livingston:"Superior Augmented Reality Registration by Integrating Landmark Tracking and Magnetic Tracking",Proc.SIGGRAPH’96,pp.429−438,1996. G.Baratoff,A.Neubeck and H.Regenbrecht:"Interactive Multi−Marker Calibration for Augmented Reality Applications",Proc.ISMAR2002,pp.107−116,2002. Daniel F.Abawi,Joachim Bienwald,Ralf Dorner:"Accuracy in Optical Tracking with Fiducial Markers:An Accuracy Function for ARToolKit",Proc.ISMAR2004,PP.260−261,2004. D.G.Lowe,"Fitting Parameterized Three−Dimensional Modells to Images",IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.13,no.5,PP.441−450,1991
前述したバンドル調整法を用いた点指標の位置計測手法では、一つの指標について最低二枚以上の画像に撮影されないと、正確な位置姿勢を求めることができない。点指標の場合には、一枚の画像にしか撮影されない場合には、該点指標が3次元空間中に存在する直線が決定されるだけで、撮像装置の奥行き方向の位置が不定になる。また、点指標のみならず正方形指標の位置姿勢を計測する場合においても、該指標が撮影される画像枚数が多ければ多いほど、誤差が多数の画像に分散されることによって、少ない画像枚数の場合に比べてより精度の高い位置姿勢を得ることができる。そのため、位置姿勢を求めたい指標が撮影される回数がなるべく多くなるように指標を撮影することが望ましい。
しかし、従来の指標計測において、操作者が撮像装置によって撮影される画像を観察しながら、各指標がこれまでに何回撮影されたかについての情報を確認する方法がなかった。
また、撮影枚数だけでなく、指標が観察される方向も一方向だけからではなく、多数の方向から観察される方が精度の高い位置姿勢を得ることができる。
しかし、従来の指標計測において、操作者が撮像装置によって撮影される画像を観察しながら、各指標がこれまでにどの方向から撮影されたかについての情報を確認する方法がなかった。
本発明は上記の課題に鑑みてなされたものであり、その目的は指標の位置姿勢計測を行うために撮像装置によって画像を撮影する際に、操作者に画像を観察しながら各指標がこれまでに何回撮影されたかの情報を与え、どの指標の撮影回数が不足しており次にどの指標を撮影するべきかをわかるようにすることにある。
また、本発明の別の目的は、指標の位置姿勢計測を行うために撮像装置によって画像を撮影する際に、操作者に画像を観察しながら各指標がこれまでにどの方向から撮影されたかの情報を与え、各指標の撮影回数が不足している方向を示して次に各指標をどの方向から撮影するべきかをわかるようにすることにある。
上記目的を達成するために本発明は、撮像装置により撮影された撮影画像を取得する画像取得手段と、前記撮影画像から指標を検出する指標検出手段と、前記指標検出手段において検出された指標を同定する指標同定手段と、前記指標同定手段における同定結果から、前記指標の配置情報を算出する配置情報算出手段と、前記指標同定手段における同定のために各指標をどのように撮影してきたかを示す撮影履歴を解析する解析手段と、前記撮影履歴と各指標との対応付けに基づいて、前記解析手段における解析結果に応じた画像を前記撮影画像上に合成して表示する表示手段とを備えることを特徴とする。
また、上記目的を達成するために本発明は、撮像装置により撮影された撮影画像を取得する画像取得手段と、前記撮影画像から指標を検出する指標検出手段と、前記指標検出手段において検出された指標を同定する指標同定手段と、前記指標同定手段における同定結果から、前記指標の配置情報を算出する配置情報算出手段と、該指標同定手段における同定情報をもとに各指標の撮影回数を計数することにより、前記指標同定手段における同定のために各指標をどのように撮影してきたかを示す撮影履歴を解析する解析手段と、前記撮影回数に応じた情報を前記撮影履歴として各指標に対応付けて、前記解析手段における解析結果に応じた画像を前記撮影画像上に合成して表示する表示手段とを備えることを特徴とする。
本発明によれば、指標の位置姿勢計測を行うための画像取得を行う際に、ユーザに計測対象となる指標がこれまでに何回撮影されたかの情報を提示することで、ユーザはどの指標の撮影回数が不足しており次にどの指標を撮影するべきかを知ることが可能になる。
また、本発明によれば、ユーザに計測対象となる指標がこれまでにどの方向や距離から撮影されたかの情報や指標検出精度に基づいた情報を提示することで、ユーザに各指標の撮影回数が不足している方向や距離、指標検出精度情報を示して次に各指標をどの方向から撮影するべきかを知らせることが可能になる。
[第1の実施形態]
図1は本実施形態における指標配置情報較正装置1の機能構成を示すブロック図である。撮像部110はカメラであり、指標が配置されたシーンや物体を撮影する。画像入力部120は、撮像部110によって撮影された画像をコンピュータ内に取り込む。画像入力部120によってコンピュータ内に取り込まれた画像から、指標検出同定部130によって指標を検出し、検出されたそれぞれの指標の同定を行う。データ管理部140は、指標検出同定部130から指標の検出結果を受け取る。また操作部150の指示により、現在撮像装置によって撮影されている画像を取得する命令が入力された場合、データ管理部140は、指標検出同定部130から入力された指標の検出結果をデータ保存部160に保存する。また表示部170は、画像入力部120によって取り込まれた画像を表示する。また、操作部150によって、指標の配置情報、すなわち各指標の位置及び姿勢を計算する命令が入力された場合、データ管理部140は、指標位置姿勢算出部180に対してデータ保存部160に保存されていた指標の検出結果を出力する。指標位置姿勢算出部180は、指標の検出結果をもとに、指標の位置及び姿勢を算出する。
次に、本実施形態で用いられる指標について説明する。図2は本実施形態で用いられる指標を説明する図である。本実施形態では、図2(a)に示されるような正方形形状の指標(以下、正方形指標)を配置情報較正の対象とする。正方形指標は、図2(a)に示すように、指標領域であることを示すための境界領域(黒枠)と、その黒枠で囲まれた内部領域からなる。内部領域は、縦と横がそれぞれ5等分されており、内側の3×3領域が正方形指標の向き及び固有の識別子を表す。3×3領域の四隅(図2(a)において4つの丸でそれぞれ囲まれている領域)が正方形指標の向きを表す領域である。尚、図2(a)における4つの丸は、説明のためのものであり、正方形指標には含まれていない。四隅のうちの三つは黒く塗りつぶされており、残る一つは白く塗りつぶされている。これによって正方形指標の向きを表す。各正方形指標の識別子は、3×3領域の四隅を除いた五つの領域によって現される(図2(a)において斜線で示されている領域)。各領域が白く塗りつぶされている場合は0、黒く塗りつぶされている場合は1を表すとすると、5ビット、すなわち32通りの識別子を表すことができる。
図2(b)は正方形指標の配置情報を説明する図である。正方形指標の配置情報は、基準座標系に対する位置及び姿勢で表現される。本実施形態では、正方形指標の位置は正方形の中心(対角線の交点)の位置であり、基準座標系に対する3次元ベクトルtwmによって表す。正方形指標の姿勢は、図2(b)のように正方形指標の座標系(指標座標系)をとったときの基準座標系に対する姿勢であるとする。姿勢の自由度は3であるので、正方形指標の姿勢は3次元ベクトルωwmによって表す。
次に、以上の構成を備えた本実施形態の指標配置情報較正装置1の動作の概要について説明する。
撮像部110はビデオカメラであり、ユーザの操作に関わらず常に画像入力部120に動画像を出力する。表示部170は、画像入力部120に入力された動画像を随時画面上に表示する。これにより、ユーザはカメラで撮影されている画像を常に画面上で確認できる。ユーザはビデオカメラを自由に動かしながら、指標が配置されているシーンや物体の画像を撮影する。
指標検出同定部130は、画像入力部120に入力される画像に含まれる指標の検出および検出された指標の同定を行う。前述した正方形指標を画像中から検出するために、指標検出同定部130は入力された画像に対して二値化及び連結領域のラベリング処理を行い、正方形指標の境界領域である黒枠で囲まれた内部領域を抽出する。さらに、指標の内部領域に対して直線フィッティングを行い、内部領域の正方形の4頂点の画像座標を求める。そして、2次元射影変換によって画像上の正方形指標を正射影画像に変換し、向き決め領域及びビット領域を読み取ることにより、正方形指標の識別子を読み出し同定を行う。
データ管理部140は、指標検出同定部130から指標検出結果を入力する。前述したように、ユーザが操作部150を指示することにより、指標の配置情報、すなわち各指標の位置及び姿勢を計算する命令が入力された場合には、指標検出同定部130から入力された指標の検出結果をデータ保存部160に保存する。よって、データ保存部160には、複数の画像についての指標の検出結果が保存される。指標の検出結果は、画像番号−指標の識別子−指標内部の正方形の4頂点の画像座標の組として保存される。
表示部170は、画像入力部120に入力された画像を随時画面上に表示する。このときデータ管理部140は、最新の画像において検出同定された指標について、データ保存部160を参照する。そして、データ管理部140は、データ保存部160に保存されている該指標の検出データ数、つまりこれまでに何回撮影されたかを計数する。そして、撮影回数が2回以上の場合と、2回未満の場合に分けて異なる方法でユーザに提示する。図3は、指標の撮影回数に応じた提示方法を示す図である。図3(a)は、撮像装置により撮影され、画像入力部120に入力された撮影画像を示している。この図の中で、画像中左の指標の撮影回数は2回未満(例えば、1回)で、右の指標の撮影回数は2回以上(例えば、4回)であるとする。図3(b)は、表示部170に表示されることで実際にユーザに提示される画像を示している。この図では、指標が画像上で検出された位置に、正方形指標の位置と姿勢に対応した形状の正方形を描いているが、撮影回数が2回以上の場合と、2回未満の場合とで色を変えた正方形を描画する(図3(b)では、2回未満の場合には灰色、2回以上の場合には黒色で描画している)。色を変えて描画することによって、ユーザは現在撮影されている画像上で、指標がこれまでに撮影された回数が充分であるか否かを確認することが可能となり、撮影回数が十分な回数に達していない指標を認識することで、次に撮影するべき指標を知ることができる。
すべての指標が2回以上撮影された場合など、ユーザが十分な画像を撮影したと判断した場合には、ユーザは操作部150から指標の配置情報、すなわち各指標の基準座標系における位置および姿勢を計算する命令を入力する。そして、指標位置姿勢算出部180は、複数の画像上における指標の検出結果をもとに指標の位置および姿勢を算出する。
図4は、本実施形態における指標配置情報較正方法の処理の手順を示すフローチャートである。まずステップS1010において、画像入力部120は撮像部110によって撮影された画像を指標検出同定部130に出力し、指標検出同定部130は該画像に含まれる指標を検出し、各指標に固有の識別子を読み出して同定を行う。さらに、指標の4頂点の画像座標を検出データとしてデータ管理部140に出力する。
次にステップS1020において、データ管理部140は、データ保存部160に保存されている指標が過去に撮影された回数を計数しているカウンタを参照し、画像中で検出同定される各指標の撮影回数を、表示部170を通じてユーザに提示する。
ユーザは、カメラによって現在撮影されている画像上の指標と該指標の過去の撮影回数を画面上で参照しながら、較正対象であるすべての指標がこれまでに十分な回数(例えば、すべての指標が2回以上)撮影されたかどうかの判定を行う。ユーザは充分であるか否かを判定し、操作部150を用いて命令を入力する。ステップS1030において、これまでに十分な回数撮影されていると入力されたと判定された場合には、ステップS1060に進む。命令は、キーボードの特定のキーによって入力したり、マウスを用いてGUIから入力したりしてもよい。十分な回数撮影されていないと入力されたと判定された場合には、ステップS1040に進む。
ステップS1040では、ユーザにより操作部150から画像取得命令が入力されたかどうかの判定を行う。命令は、キーボードの特定のキーによって入力したり、マウスを用いてGUIから入力したりしてもよい。画像取得命令が入力されたと判定された場合には、ステップS1050に進み、そうでない場合にはステップS1010に戻る。
ステップS1050では、ステップS1010において検出同定された指標について、画像番号−指標の識別子−指標内部の正方形の4頂点の画像座標の組をデータ保存部160に保存する。そして、各指標が検出同定された回数を示すカウンタの値を1増やし、ステップS1010に戻る。
ステップS1060では、指標の位置姿勢の算出を行う。ここで、指標の位置姿勢の算出方法について説明する。ここで、較正対象の、すなわち位置姿勢算出の対象となる指標の数をNとし、撮影された画像の枚数をMとする。また、指標i(i=1,2,…,N)の位置姿勢を表す6次元ベクトルをa、画像j(j=1,2,…,M)を撮影したカメラの位置姿勢を表す6次元ベクトルをsと表す。指標の位置姿勢を表す6次元ベクトルaは、指標の基準座標系における位置
Figure 0004926817
、基準座標系に対する姿勢
Figure 0004926817
の各成分からなるベクトルであり、
Figure 0004926817
のように表すことができる。カメラの基準座標系における位置を
Figure 0004926817
、基準座標系に対する姿勢を
Figure 0004926817
とすると、カメラの位置姿勢を表す6次元ベクトルsも同様に、
Figure 0004926817
のように表すことができる。
正方形指標の各頂点の指標座標系における座標
Figure 0004926817
(k=1,2,3,4)は、正方形の一辺の長さをeとして、例えば(式1)のように表すことができ、正方形の一辺の長さがわかる場合には既知の値となる。
Figure 0004926817
基準座標系に対する位置姿勢がtwm、ωwmである指標の指標座標がxである頂点の,基準座標系に対する位置姿勢がtwc、ωwcであるカメラのカメラ座標xは(式2)のように表すことができる。
=R(ωwc−1・(R(ωwm)・x+twm−twc) (式2)
但し、R(ωWC)、R(ωWm)はそれぞれωwc、ωwmで表される姿勢を表す3×3回転変換行列である。また、カメラ座標が
=[x
である点が焦点距離がfであるピンホールカメラによって画像上に投影される位置
u=[u
は、(式3)のように表すことができる。
Figure 0004926817
すなわち、uは指標の位置姿勢twm、ωwm、カメラの位置姿勢twc、ωwcの関数となる。よって、指標iの頂点k(k=1,2,3,4)の画像j上における投影像の位置を表す2次元ベクトルui,j,kは、(式4)に示すように、a、sの関数となる。
i,j,k=F(a、s) (式4)
指標iの頂点kの画像j上における投影像の実際の画像上での観察位置を
Figure 0004926817
と表すと、
Figure 0004926817
と、観察位置
Figure 0004926817
とa、sから計算されるui,j,kとの誤差
Figure 0004926817
は(式5)のように1次近似することができる。
Figure 0004926817
∂ui,j,k/∂a、∂ui,j,k/∂sは(式4)において、ui,j,kをそれぞれa、sの各成分によって偏微分したときの偏微分係数を並べたヤコビ行列である。(式5)を各画像中で検出同定された各指標の各頂点について立て、すべての△a(i=1,2,…,N)、△s(j=1,2,…,M)を共通の未知変数として連立方程式として解くことにより、△a(i=1,2,…,N)、△s(j=1,2,…,M)を得ることができる。予め、a、sには初期値を与えておき、△a(i=1,2,…,N)、△s(j=1,2,…,M)を求めて、a=a+△a、s=s+△sという補正を行う操作を繰り返すことで、指標の位置姿勢a(i=1,2,…,N)を求める。
カメラの位置姿勢の初期値は、カメラに磁気式、光学式、超音波式などの6自由度位置姿勢センサを装着し、センサの計測値から得てもよい。また、基準座標系における位置姿勢が既知の指標を撮影した画像をDLT(Direct Linear Transform)法などの公知の手法を利用して求めてもよい。
指標の位置姿勢の初期値は、予め概略の位置を手動で計測しておく。また、位置姿勢がわかっているカメラに写った指標の投影像をもとに求めてもよい。
以上説明したように、本実施形態においては、シーンや物体に配置または設定された指標の位置姿勢を画像を用いて求める際に、撮影画像上に該指標がこれまでに撮影された回数に関する情報をユーザに示す。これにより、ユーザは、どの指標の撮影回数が不足しており次にどの指標を撮影するべきかを簡単に把握することができ、効率的に指標の較正を行うことができる。
[変形例1−1]
なお、本実施形態では、撮影画像上での指標の検出位置に撮影回数により色を変えて正方形を描画していたが、これ以外の方法でユーザに指標の撮影回数の情報を示してもよい。例えば、正方形の外枠部分だけを色を変えて描画し、指標の内部領域全体を塗りつぶさなくてもよい。また、色を変えるのではなく、撮影回数が十分な指標は透明度を大きく、撮影回数が足りない指標は透明度を小さくして正方形を描画してもよいし、その逆であってもよい。さらに、撮影回数が十分な指標には何も情報を提示せず、撮影回数が足りない指標にのみ情報を提示してもよいし、その逆であってもよい。
また、図形描画ではなく、文字情報によって撮影回数に関する情報を提示してもよい。例えば、画像上での指標の検出領域の周辺に、指標ごとにこれまでの撮影回数を数字で示してもよい。また、撮影回数ではなく、指標ごとに残り必要な撮影回数を数字で示してもよい。
[変形例1−2]
本実施形態では、指標が2回以上撮影されたかどうかで情報提示方法を変えていたが、2回に限るものではない。ユーザは自由に情報提示方法を変更する撮影回数を、操作部150を用いて設定することが可能であり、そのユーザが設定した撮影回数に応じて情報提示方法が変更される。
[変形例1−3]
本実施形態では、画像上での検出位置に情報を提示していたがこれに限るものではない。例えば、カメラの概略の位置姿勢と、指標の概略の位置姿勢が何らかの方法でわかっている場合には、それらの概略の位置姿勢をもとに指標が画像上に投影される位置を計算し、その計算位置に提示してもよい。カメラの概略の位置姿勢は、磁気式、光学式、超音波式などの6自由度位置姿勢センサをカメラに装着することによって得てもよいし、概略また正確な位置姿勢がわかっている指標の画像上での投影像をもとに計算により得てもよい。指標の概略の位置姿勢は、あらかじめ手動で計測してもよいし、概略また正確な位置姿勢がわかっている指標を基準として、画像から計算してもよい。
[変形例1−4]
なお、本実施形態において配置情報較正の対象となる指標を正方形指標としたが、点形状の指標や、その他の形状の指標でも本発明の本質が損なわれることはないことは言うまでもない。
[変形例1−5]
本実施形態では、撮影回数により指標の情報提示方法を変えていたが、基準座標系を規定する基準指標のようにあらかじめ正確な位置姿勢がわかっている指標と、位置姿勢較正の対象である指標とで情報提示方法を変えてもよい。
[変形例1−6]
本実施形態において、図4のフローチャートにおけるステップS1030において、指標の撮影回数が十分かどうかの判断をユーザが行い、指標の位置姿勢算出の指示を操作部150を通じてユーザが明示的に行っていた。
しかしながら、ステップS1030における判定を、コンピュータが自動的に行い、ユーザによる明示的な入力を必要とすることなく、すべての指標が所定回数以上撮影されていたらコンピュータが自動的に指標の位置姿勢の計算を開始してもよい。
[第2の実施形態]
第1の実施形態では、指標の位置計測を行うために、画像上で観察される指標が過去にカメラによって撮影された回数についての情報をユーザに提示していた。第2の実施形態では、ユーザに撮影画像を観察しながら各指標がこれまでにどの方向から撮影されたかの情報を提示し、各指標の撮影回数が不足している方向を示して次に各指標をどの方向から撮影するべきかをユーザがわかるようにする。
本実施形態における指標配置情報較正装置の機能構成を示すブロック図を図5に示す。本実施形態における指標配置情報較正装置の機能構成は第1の実施形態の指標配置情報較正装置に類似しており、重複部分の詳細な説明は省略する。
第1の実施形態と同様に、撮像部110は指標が配置されたシーンや物体を常に撮影しており、撮影した画像を画像入力部120を通してコンピュータに入力する。指標同定検出部130は、画像入力部120から入力された画像中から指標領域を検出し、各指標に固有の識別子を読み出して同定を行い、指標の識別子と指標の各頂点の画像座標をデータ管理部240に出力する。
データ管理部240は、指標検出同定部130において検出同定された各指標について、データ保存部250に保存されている該指標が過去にどの方向から撮影されたかの情報を参照し、表示部270を通してユーザに提示する。これによって、ユーザは現在画像に写っている指標について、過去にどの方向から撮影されたかの情報を受け取り、次に該指標をどの方向から撮影するべきかを知ることができる。図6に本実施形態における、過去にどの方向から撮影されたかの情報を提示する方法を示す。図6では、正方形指標の4辺のどちらの方向から過去に撮影されたかの情報を、画像上で検出された指標の上に重畳表示している。図6(a)は、撮像部110で撮影され、画像入力部120に入力された撮影画像である。この撮影画像が、表示部270において、図6(b)の様に表示される。図6(b)中に示される左側の指標は、黒い三角形で塗られた部分に対応する方向から過去に撮影されており、過去に一方向からのみ撮影された指標を示している。また図6(b)中に示される右側の指標は、2つの黒い三角形で塗られており、過去に二方向から撮影された指標を示している。
データ管理部240は、操作部150によって画像取得命令が入力されると、データ保存部260に指標検出同定部130から出力される現在表示されている画像の指標検出同定結果として、画像中で検出同定された指標の識別子と各頂点の画像座標及び撮影方向を保存する。
操作部150から指標位置姿勢計算命令が入力されると、データ管理部240はデータ保存部260から指標検出結果を読み出して指標位置姿勢算出部180に出力し、指標位置姿勢算出部180は該指標検出結果をもとに指標の位置姿勢を算出しこれを出力する。
図7は、第2の実施形態における指標配置情報較正方法の処理の手順を示すフローチャートである。まずステップS1010において、画像入力部120は撮像部110によって撮影された画像を指標検出同定部130に出力し、指標検出同定部130は該画像に含まれる指標を検出し、各指標に固有の識別子を読み出して同定を行う。さらに、指標の4頂点の画像座標を検出データとしてデータ管理部240に出力する。
次にステップS2020において、データ管理部240は、データ保存部260に保存されている、指標が過去にどの方向から撮影されたかを参照し、各指標の過去の撮影方向を、表示部270を通じてユーザに提示する。
ユーザは、カメラによって現在撮影されている画像上の指標と該指標の過去の撮影方向を画面上で参照しながら、較正対象であるすべての指標がこれまでに十分な撮影方向から撮影されたかどうかの判定を行う。例えば、指標の法線を軸とした回転を四つ(すなわち90度)に分割し、すべての分割された方向から撮影されているか否かを判定する。ユーザは撮影が十分であるか否かを判定し、操作部150を用いて命令を入力する。ステップS2030において、これまでに十分な方向から撮影されていると入力されたと判定された場合には、ステップS1060に進む。命令は、キーボードの特定のキーを用いて入力したり、マウスを用いてGUIから入力したりしてもよい。十分な回数撮影されていないと入力されたと判定された場合には、ステップS1040に進む。
ステップS1040では、ユーザにより操作部150から画像取得命令が入力されたかどうかの判定を行う。命令は、キーボードの特定のキーを用いて入力したり、マウスを用いてGUIから入力したりしてもよい。画像取得命令が入力されたと判定された場合には、ステップS2050に進み、そうでない場合にはステップS1010に戻る。
ステップS2050では、ステップS1010において検出同定された指標の4頂点の画像座標をデータ保存部160に保存し、さらに各指標が撮影された方向のフラグをセットし、ステップS1010に戻る。ここで、各指標が撮影された方向の決定を次のように行う。本実施形態において、較正の対象となる正方形指標の法線まわり、すなわち図2(b)における指標座標系のz軸まわりの回転を、正方形の各辺に対応するように四つに分割し、四つの方向に対応するフラグを用意する。このとき、どの方向から撮影されたかの判定は、画像中での撮影される正方形の各辺の長さに基づいて行い、最も長い辺に対応する方向から撮影されたと判定してフラグをセットする。
ステップS1060では、第1の実施形態と同様の方法で指標の位置姿勢の算出を行う。
以上説明したように、第2の実施形態では、ユーザに撮影画像を観察しながら各指標がこれまでにどの方向から撮影されたかの情報を提示し、各指標の撮影回数が不足している方向を示して次に各指標をどの方向から撮影するべきかをユーザが知ることができる。
[変形例2−1]
第2の実施形態では、過去に撮影された方向に対応する画像上の指標の部分を塗りつぶすことにより過去に撮影された方向をユーザに提示していたが、提示方法はこれに限るものではない。例えば、画像上の指標の正方形の各辺の色を変えて提示してもよいし、透明度を変えて表示してもよいし、ユーザが識別可能であればどのような方法でもよい。
[変形例2−2]
第2の実施形態では、指標が撮影された方向を、画像中における正方形の辺の長さに基づいて決定していたが、これに限るものではない。正方形指標の各頂点の画像座標をもとに、2次元射影変換などの方法を用いて正方形指標に対するカメラの相対位置姿勢を求める。そして、求めた姿勢から指標の法線軸まわりの回転を公知の方法で抽出することによって決定してもよい。また、第2の実施形態では、指標の法線軸まわりの回転を四つに分解していたが、分割数は四つに限られるものではない。また、指標の法線軸まわりの回転に限るものでもなく、指標の観察方向を任意に分割してよい。
[変形例2−3]
第2の実施形態では、指標が過去に撮影された方向についての情報をユーザに提示したが、これに限るものではない。例えば、第1の実施形態で説明した撮影回数についての情報も併せてユーザに提示してもよい。また、撮影方向ごとの撮影回数といった形式で情報を提示してもよい。
[変形例2−4]
第2の実施形態では、指標が過去に撮影された方向についての情報をユーザに提示したが、方向に限るものではなく、撮影時点でのカメラと指標との距離や、指標に対するカメラの相対位置といった他の情報をユーザに提示してもよい。この距離は、指標の大きさが既知であるので、撮像画像中の指標の大きさと、指標の既知の大きさを対比することでおおまかな距離を求め、この距離に基づいた情報を提示すればよい。また、相対位置に関しても、同様である。
[第3の実施形態]
図8は本実施形態における指標配置情報計測装置の機能構成を示すブロック図である。撮像部800はカメラであり、指標が配置されたシーンや物体を撮影する。画像入力部810は、撮像部800によって撮影された画像をコンピュータ内に取り込む。画像入力部810によってコンピュータ内に取り込まれた画像から、指標検出部820によって指標を検出する。さらに指標同定部830によって、指標検出部820によって検出された指標の同定を行う。データ管理部840は、指標同定部830から入力された指標の同定結果をデータ保存部850に保存する。また、解析部860はデータ保存部850に保存された同定結果の解析を行う。表示部870は、画像入力部810によって取り込まれた画像に、解析部860における解析結果に応じた画像を合成した画像を表示する。また、操作部880によって、指標の配置情報を計算する命令が入力された場合、データ管理部840は、指標配置情報算出部890に対してデータ保存部850に保存されていた指標の同定結果を出力する。指標配置情報算出部890は、指標の同定結果をもとに、指標の配置情報を算出する。
本実施形態において計測対象となる指標は、例えば、正方形指標や点指標を使用する。
次に、以上の構成を備えた本実施形態の指標配置情報計測装置の動作の概要について説明する。撮像部800は、ビデオカメラであるとし、ユーザの操作に関わらず常に画像入力部810に動画像を出力する。表示部870は、画像入力部810に入力された動画像を随時画面上に表示する。これにより、ユーザはビデオカメラで撮影されている画像を常に画面上で確認できる。ユーザはビデオカメラを自由に動かしながら、指標が配置されているシーンや物体の画像を撮影する。
指標検出部820は、画像入力部810に入力された画像に含まれる指標を検出する。前述した正方形指標を画像中から検出するために、指標検出部820は入力された画像に対して二値化及び連結領域のラベリング処理を行い、正方形指標の境界領域である黒枠で囲まれた内部領域を抽出する。さらに、指標の内部領域に対して直線フィッティングを行い、内部領域の正方形の4頂点の画像座標を求め、指標同定部830に画像及び画像座標の組合せを出力する。
指標同定部830は、指標検出部820より入力された画像座標に基づいて、2次元射影変換によって画像上の正方形指標を正射影画像に変換し、向き決め領域及びビット領域を読み取ることにより、正方形指標の識別子を読み出し同定を行う。
データ管理部840は、指標同定部830から指標同定結果を入力する。ユーザの入力に基づく操作部880の指示により、現在ビデオカメラによって撮影されている画像を取得する命令が入力された場合には、指標同定部830から入力された指標の同定結果をデータ保存部850に保存する。よって、データ保存部850には、複数の画像についての指標の同定結果が保存さている。指標の同定結果は、画像番号−指標の識別子−指標内部の正方形の4頂点の画像座標の組として保存される。
解析部860は、操作部880により現在ビデオカメラによって撮影されている画像を取得する命令が入力され、指標同定部830から入力された指標の同定結果がデータ保存部850に保存されたときに、データ保存部850に保存されたすべての指標の同定結果を解析する。そして、計測対象の指標の基準座標系における配置情報が計測可能であるかの判定を行う。判定は、例えば基準座標系における配置情報が既知である指標が所定回数撮影されているかどうかに基づいて行う。基準座標系における配置情報が既知である指標は、図2(a)に示すような正方形指標であってもよいし、図9に示すような配置情報が点の位置で表される指標(以下、点指標)であってもよい。図9における点指標は、円形状であって指標内部が同一色である指標である。本実施形態では、点指標の位置を円の重心であるとする。
従来の写真測量技術と同様に、指標の同定結果のみから算出される指標の配置情報は、指標同士の相対的な位置関係しか得ることができない。その相対的な位置関係は、任意の基準座標系(以下、相対基準座標系と呼ぶ)、例えばある正方形指標の指標座標系、を基準とした各指標の位置及び姿勢によって表すことができる。計測対象指標の基準座標系における配置情報が計測可能であるためには、相対基準座標系と基準座標系との対応が既知である必要がある。相対基準座標系と基準座標系のスケールが同じであると仮定すると、二つの座標系の対応は、一方の座標系に対する他方の座標系の位置及び姿勢によって表される。
相対基準座標系と基準座標系との対応を求めるためには、基準座標系における位置及び姿勢が既知である1個以上の正方形指標の、相対基準座標系における位置及び姿勢が計測される必要がある。サイズが既知である正方形指標の相対基準座標系における位置及び姿勢を計測するためには、該正方形指標は相対基準座標系における位置及び姿勢が既知のカメラにより少なくとも1回以上撮影されている必要がある。また、基準座標系における位置が既知で、同一直線上にない3個以上の点指標の相対基準座標系における位置が計測される場合にも、相対基準座標系と基準座標系との対応を求めることができる。点指標の相対基準座標系における位置を計測するためには、該点指標は相対基準座標系における位置及び姿勢が既知のカメラにより少なくとも2回以上撮影されている必要がある。
解析部860は、データ保存部850に保存されている同定結果を解析する。例えば基準座標系における位置及び姿勢が既知の正方形指標が1回以上撮影されているか、または基準座標系における位置が既知の3個以上の点指標が各々2回以上撮影されているかどうかを解析する。そして解析部860は計測対象の指標の基準座標系における配置情報が計測可能であるかの判定を行い、判定結果を解析結果として出力する。
操作部880を介して、ユーザは現在ビデオカメラによって撮影されている画像を取得する命令を入力するとともに、指標の配置情報、すなわち各指標の位置及び姿勢を計算する命令を指標配置情報算出部890に入力する。指標配置情報算出部890は、解析部860において基準座標系における指標の配置情報計測が可能であるという解析結果が出力された場合には、各指標の基準座標系における位置及び姿勢を算出する。解析部860において基準座標系における指標の配置情報計測が不可能という解析結果が出力された場合、計測対象の指標から正方形指標を1つ選択し、選択された指標の指標座標系を相対基準座標系として、その座標系における各指標の位置及び姿勢を算出する。ユーザは、ビデオカメラによって画像の撮像を行いながら、例えば十分な枚数の画像を撮影したと判断した場合などに、指標配置情報を計算する命令を指標配置情報算出部890に入力し、指標配置情報を算出する。また、ユーザが操作部880を介して画像を撮影する命令を入力したときに、該画像における指標の同定結果をデータ保存部850に保存した後、データ保存部850に保存されている同定結果をもとに自動的に指標配置情報算出部890が指標配置情報を算出してもよい。指標配置情報算出部890において算出された指標配置情報は、データ管理部140を介して、データ保存部850に保存される。保存される指標配置情報は、基準座標系または相対基準座標系における配置情報であり、ユーザは画像の取得と配置情報算出を繰り返しながら、最終的に基準座標系において十分な精度を有する指標配置情報を計測する。また、指標の基準座標系における配置情報が既知である場合にも、該配置情報はデータ保存部850に保存されているものとする。
位置姿勢算出部900は、データ保存部850に保存されている指標配置情報に基づいて、現在のビデオカメラの位置及び姿勢を算出する。位置姿勢算出部900は、撮像部800から画像入力部810に入力された画像における指標同定結果を指標同定部830から入力し、正方形指標の各頂点または点指標の画像座標3次元座標との対応をもとに、該画像を撮影した際のビデオカメラの位置及び姿勢を算出する。
表示部870は、画像入力部810に入力される画像を随時画面上に表示する。このとき、前述した解析部860が出力する解析結果に基づいて、基準座標系における指標の配置情報計測が可能である場合とそれ以外の場合に分けて、異なる方法でユーザに情報提示する。図10は、基準座標系における指標の配置情報計測が可能かどうかに応じた提示方法を示す図である。表示部870は、解析部860において基準座標系における指標の配置情報計測が不可能であると判断され、相対基準座標系における配置情報計測が可能であると判断された場合には次のような処理を行う。すなわち、図10(a)に示す撮影画像に対して、図10(b)に示すように、位置姿勢算出部900が出力する相対基準座標系におけるビデオカメラの位置及び姿勢に基づいて相対基準座標系における指標の3次元モデルを描画し、画像入力部810への入力画像上に合成して不図示のディスプレイに表示する。ディスプレイは、CRTやLCDなどの通常のコンピュータ用のディスプレイや、ARの画像表示装置であるヘッドマウントディスプレイであってもよい。解析部860において基準座標系における指標の配置情報計測が可能であると判断された場合には次のような処理を行う。すなわち図10(c)に示すように、位置姿勢算出部900が出力する基準座標系における撮像装置の位置及び姿勢に基づいて基準座標系を表す3次元モデルと基準座標系における指標の3次元モデルを描画した画像を撮影画像と重畳合成する。前述の提示方法により、基準座標系における配置情報計測が可能であるかどうかをユーザが画像上で確認することができるため、ユーザは基準座標系における配置情報が既知の指標をさらに撮影すべきかどうかを知ることができる。
基準座標系または相対基準座標系における指標の3次元モデルは、図10(b)に示すように、例えば指標の内部領域の外枠と、指標の法線方向を表す線分(図2(b)において指標中心からz方向に伸びた線分)である。しかし、基準座標系または相対基準座標系における指標の3次元モデルは指標の形状を表すものであればどのようなモデルであってもよい。例えば、指標の内部領域の外枠だけであってもよい。また、基準座標系を表す3次元モデルは、例えば基準座標系の原点を起点として直交する3軸方向に伸びた線分であるとする。各線分は基準座標系のx軸、y軸、z軸(図2(b)におけるx軸、y軸、z軸)である。基準座標系を表す3次元モデルは、図10(c)に示すように、各軸名及び原点を表す文字情報を持っていてもよい。
図11は、本実施形態における指標配置情報計測方法の処理の手順を示すフローチャートである。まずステップS1110において、画像入力部810は、撮像部800によって撮影された画像を指標検出部820に出力する。指標検出部820は、入力された画像に対して二値化及び連結領域のラベリング処理を行って正方形指標の内部領域を抽出する。そして、内部領域の外周部分について直線フィッティングを行い、正方形指標の内部領域の4頂点の画像座標を求めることで、正方形指標を検出する。また、計測対象指標に、例えば同一色で塗られた円領域である点指標が含まれている場合には次のように検出を行う。すなわち、指標と同一の色を有する画素を該色に対応するYUV色空間画像の特定領域にあるかどうかで抽出し、同一色として連結している画素をラベリングすることで指標領域を求め、画像内での指標領域の重心を計算することで検出を行う。
指標同定部830は、指標検出部820より入力された検出指標の画像座標に基づいて指標の同定を行う。正方形指標については、該画像座標に基づいて画像上の正方形指標を正射影画像に変換し、向き決め領域及びビット領域を読み取ることにより指標の識別子を読み出し同定を行う。また、点指標の同定は、例えばマウスで画像上の検出指標位置をクリックして同定してもよいし、始めに手動で同定した後、画像間で動的に追跡を行って同定してもよい。また、点指標は非特許文献5に示すような固有の識別子を持つ自然特徴点である場合には、画像から検出する際に直接得られる識別子を用いて同定してもよい。同定結果はデータ管理部840及び位置姿勢算出部900に送られる。
次にステップS1120において、位置姿勢算出部900は現在のビデオカメラの位置及び姿勢を算出する。位置姿勢算出部900は、解析部860が出力する解析結果において基準座標系における指標の配置情報計測が可能と判定されていれば基準座標系における撮像装置の位置及び姿勢を算出する。一方、相対基準座標系における配置情報計測が可能であれば相対基準座標系における撮像装置の位置及び姿勢を算出する。撮像装置の位置及び姿勢は、画像上で観察される指標が3次元空間中で同一平面上にない場合には、例えばDirect Linear Transform(DLT)法により、画像座標と3次元座標の対応から線形連立方程式を解くことにより算出することができる。また、画像上で観察される指標が3次元空間中で同一平面上に存在する場合には、画像座標と平面座標との対応から線形連立方程式を解くことにより該平面と画像平面との間の2次元射影変換を求めることによってビデオカメラの位置及び姿勢を算出することができる。さらに非特許文献6に示すように、何らかの方法でビデオカメラの位置及び姿勢の初期値を得て、指標の画像上での検出画像座標と、計算される画像座標との誤差を最小化するように反復演算によりビデオカメラの位置及び姿勢を最適化してもよい。初期値は、前述の線形連立方程式を解く方法によって得たり、前フレームにおける位置及び姿勢を利用することが可能である。また、反復演算の方法としては、ガウス−ニュートン法、レーベンバーグ−マーカート法などを利用することができる。さらに、M推定、RANSAC(RANdom SAmple Consensus)などのロバスト推定手法を利用して、指標の誤検出や誤対応に起因するアウトライヤを除去してビデオカメラの位置及び姿勢を算出してもよい。
ステップS1130では、基準座標系における指標の配置情報計測が可能かどうかをユーザに提示する。解析部860が出力する解析結果において基準座標系における指標の配置情報計測が可能と判定されれば次の処理を行う。すなわち、ステップS1120で算出した基準座標系におけるビデオカメラの位置及び姿勢に基づいて、基準座標系を表す3次元モデルと基準座標系における指標の3次元モデルを描画した画像を撮影画像と重畳合成し、表示する。また、解析部860が出力する解析結果において基準座標系における指標の配置情報計測が不可能と判定されていれ次の処理を行う。すなわち、ステップS1120で算出した相対基準座標系におけるビデオカメラの位置及び姿勢に基づいて、相対基準座標系における指標の3次元モデルを描画した画像を撮影画像と重畳合成し、表示する。
ステップS1140では、操作部880から指標配置情報を算出する命令が入力されたかどうかを判定し、入力されたと判定された場合にはステップS1180に進み、そうでない場合にはステップS1150に進む。命令は、キーボードの特定のキーによって入力したり、マウスを用いてGUIから入力したりしてもよい。
ステップS1150では、操作部880から画像を取得する命令が入力されたかどうかを判定し、入力されたと判定された場合にはステップS1160に進み、そうでない場合にはステップS1110に戻る。命令は、キーボードの特定のキーによって入力したり、マウスを用いてGUIから入力したりしてもよい。
ステップS1160では、ステップS1110において検出され、同定された指標について、画像番号−指標の識別子−指標内部の正方形の4頂点の画像座標の組(点指標の場合には該点指標の画像座標)をデータ保存部850に保存し、ステップS1170に進む。
ステップS1170では、解析部860がデータ保存部850に保存されたすべての指標の同定結果を解析し、計測対象の指標の基準座標系における配置情報が計測可能であるかの判定を行う。判定は、例えば基準座標系における配置情報が既知である指標が所定回数撮影されているかどうかに基づいて行う。該基準座標系における配置情報が既知である指標が正方形指標である場合には、1個以上の正方形指標が1回以上撮影されているかどうかに基づいて判定を行う。このとき、該正方形指標のみが撮影されているのではなく、他の計測対象の指標と同時に撮影されている必要がある。なお、ここでは撮影回数は1回以上としているが、それに限られるものではなく、より精度の高い計測を行うために2回以上に設定してもよい。また該基準座標系における配置情報が既知である指標が点指標である場合には、3個以上の同一直線上にない点指標が各々2回以上撮影されているかどうかに基づいて判定を行う。点指標の場合も同様に、該点指標は他の他の計測対象の指標と同時に撮影されている必要がある。正方形指標と同様に、点指標の場合も撮影回数は2回に限られるものではなく、より精度の高い計測を行うために、3回以上に設定してもよい。また該基準座標系における配置情報が既知である指標として正方形指標、点指標が混在していてもよく、前述の条件のいずれかを満たせば基準座標系における配置情報が計測可能であると判定する。ステップS1170の処理が終ると、ステップS1110に戻る。ユーザによる配置情報算出の命令が行われなくとも、ステップS1170の後に自動的にステップS1180に進んで配置情報算出を行ってもよい。
ステップS1180では、指標の配置情報の算出を行う。ここで、指標の配置情報の算出方法について説明する。まず、相対基準座標系における指標の配置情報算出方法について説明した後、相対基準座標系から基準座標系への変換方法について説明する。ここで、計測対象の、すなわち配置情報算出の対象となる指標の数をNとし、撮影された画像の枚数をMとする。また、正方形指標i(i=1,2,…,N)の位置姿勢を表す6次元ベクトルをa、画像j(j=1,2,…,M)を撮影したカメラの位置姿勢を表す6次元ベクトルをsと表す。指標の位置姿勢を表す6次元ベクトルaは、指標の相対基準座標系における位置
Figure 0004926817
、相対基準座標系に対する姿勢
Figure 0004926817
の各成分からなるベクトルであり、
Figure 0004926817
のように表すことができる。カメラの相対基準座標系における位置を
Figure 0004926817
、相対基準座標系に対する姿勢を
Figure 0004926817
とすると、カメラの位置姿勢を表す6次元ベクトルをsも同様に、
Figure 0004926817
のように表すことができる。
正方形指標の各頂点の指標座標系における座標
Figure 0004926817
(k=1,2,3,4)は、正方形の一辺の長さを2e(e>0)として、例えば(式6)のように表すことができ、正方形の一辺の長さがわかる場合には既知の値となる。
Figure 0004926817
相対基準座標系に対する位置姿勢がtwm、ωwmである指標の指標座標がxである頂点の,相対基準座標系に対する位置姿勢がtwc、ωwcであるカメラのカメラ座標xは(式7)のように表すことができる。
=R(ωWC−1・(R(ωWm)・x+twm−twc) (式7)
但し、R(ωWC)、R(ωWm)はそれぞれωwc、ωwmで表される姿勢を表す3×3回転変換行列である。また、カメラ座標が
=[x
である点が焦点距離がfであるピンホールカメラによって画像上に投影される位置
u=[u
は、(式8)のように表すことができる。
Figure 0004926817
すなわち、uは指標の位置姿勢twm、ωwm、カメラの位置姿勢twc、ωwcの関数となる。よって、指標iの頂点k(k=1,2,3,4)の画像j上における投影像の位置を表す2次元ベクトルui,j,kは、(式9)に示すように、a、sの関数となる。
i,j,k=F(a、s) (式9)
指標iの頂点kの画像j上における投影像の実際の画像上での観察位置を
Figure 0004926817
と表すと、観察位置
Figure 0004926817
とa、sから計算されるui,j,kとの誤差
Figure 0004926817
は(式10)のように1次近似することができる。
Figure 0004926817
∂ui,j,k/∂a、∂ui,j,k/∂sは(式9)において、ui,j,kをそれぞれa、sの各成分によって偏微分したときの偏微分係数を並べたヤコビ行列である。(式10)を各画像中で検出同定された各指標の各頂点について立て、すべての△a(i=1,2,…,N)、△s(j=1,2,…,M)を共通の未知変数として連立方程式として解くことにより、△a(i=1,2,…,N)、△s(j=1,2,…,M)を得ることができる。予め、a、sには初期値を与えておき、△a(i=1,2,…,N)、△s(j=1,2,…,M)を求めて、a=a+△a、s=s+△sという補正を行う操作を繰り返すことで、指標の位置姿勢△a(i=1,2,…,N)を求める。
カメラの位置姿勢の初期値は、位置姿勢算出部900が算出する位置姿勢を用いる。また、カメラに磁気式、光学式、超音波式などの6自由度位置姿勢センサを装着し、センサの計測値から得てもよい。また、相対基準座標系における位置及び姿勢がわかっている指標の画像座標からDLT(Direct Linear Transform)法などの公知の手法を利用して求めてもよい。指標の位置姿勢の初期値は、予め概略の位置を手動で計測しておく。また、相対基準座標系における位置及び姿勢がわかっているカメラに写った指標の投影像をもとに求めてもよい。サイズが既知の正方形指標であれば、正方形指標の各頂点の指標座標系における実平面位置と、画像座標との対応をもとに、実平面と画像平面との間の2次元射影変換を求めることにより、正方形指標の位置及び姿勢を算出することができる。点指標の場合には、2台以上の相対基準座標系における位置及び姿勢がわかっているカメラに該点指標が撮影されていれば、三角測量の原理により点指標の位置を算出することができる。
次に、相対基準座標系における指標の配置情報を、基準座標系における指標の配置情報に変換する方法について説明する。まず、基準座標系における位置及び姿勢が既知である正方形指標が撮影されており、該正方形指標の相対基準座標系における位置及び姿勢が前述の配置情報算出方法により算出されている場合について説明する。ここで、基準座標系における位置及び姿勢が既知である正方形指標の基準座標系における位置及び姿勢を3次元ベクトルtwm及び3×3回転行列Rwmで表す。また、該正方形指標の相対基準座標系における位置及び姿勢を3次元ベクトルtsm及び3×3回転行列Rsmで表す。前述の配置情報算出方法により算出される相対基準座標系における指標の位置を表す3次元ベクトルがt、姿勢を表す3×3回転行列がRである指標の、基準座標系における位置を表す3次元ベクトルt’、姿勢を表す3×3回転行列R’は式11のように表せる。
Figure 0004926817
次に、基準座標系における位置が既知である同一直線上にない3点以上の点指標が、各々2回以上撮影されている場合について説明する。この場合、該点指標の相対基準座標系における位置が算出されるので、2つの座標系における点指標の位置の対応を用いて、座標系同士の位置及び姿勢を算出する。点指標の数が3点の場合など、点指標が同一平面上に存在する場合には、平面同士の2次元射影変換を求めることによって座標変換行列を求める。点指標が同一平面上に存在しない場合には、式8を満たす座標変換行列Mを例えば最小二乗法により求める。ここで
Figure 0004926817
(n=1,2,...)は基準座標系における点指標の位置、
Figure 0004926817
(n=1,2,...)は相対基準座標系における点指標の位置を表す。
Figure 0004926817
座標変換行列Mの回転を表す3×3回転行列をRws、平行移動を表す3次元ベクトルtwsと表す。前述の配置情報算出方法により算出される相対基準座標系における指標の位置を表す3次元ベクトルがt、姿勢を表す3×3回転行列がRである指標の、基準座標系におけ位置を表す3次元ベクトルt’、姿勢を表す3×3回転行列R’は式13のように表せる。
Figure 0004926817
ステップS1180において、指標の配置情報を算出した後、ステップS1190に進む。ステップS1180において、基準座標系における指標の配置情報を算出できなかった場合にはステップS1110に戻り、基準座標系における配置情報が既知の指標の撮影を行う。また、基準座標系における指標の配置情報が算出できた場合でも、ユーザが計測精度に満足できない場合はステップS1110に戻り、撮影を継続する。
以上説明したように、本実施形態においては、他の指標の基準座標系における配置情報を算出することが可能かどうかユーザに提示することにより、ユーザがさらに撮影を継続するべきかが瞬時にわかり、効率的に指標の配置情報の計測を行うことができる。
[変形例3−1]
なお、本実施形態では、基準座標系における指標の配置情報の計測が可能かどうかを基準座標系を表す3次元モデルを描画することによりユーザに提示していた。しかし提示方法はこれに限るものではなく、撮影画像上に基準座標系における指標の配置情報の計測が可能であるか否かを表示する方法であれば他のいかなる方法であってもよい。
例えば、指標を表す3次元モデルの色を、基準座標系における指標の配置情報の計測が可能な場合とそうでない場合とで変更することによって提示してもよい。また、色を変えるのではなく、基準座標系における指標の配置情報の計測が可能な場合には指標を表す3次元モデルの透明度を小さく、そうでない場合には透明度を大きくして描画してもよいし、その逆でもよい。
また、本実施形態では、ビデオカメラの位置及び姿勢、基準座標系や指標の3次元モデルを用いて基準座標系における指標の配置情報の計測が可能かどうかを3次元的にユーザに提示していたが、2次元的に提示してもよい。例えば、ビデオカメラの位置及び姿勢を計算せずに、データ保存部150に保存されている同定情報のみを利用してもよい。すなわち、基準座標系における指標の配置情報の計測が可能な場合には、図13(a)に示すように検出された正方形指標の各頂点の画像座標を利用して内部を塗りつぶしたり、図13(b)に示すように対角線を引いたりすることでユーザに提示してもよい。また、図形として提示するのではなく、図13(c)に示すようにテキスト情報として提示してもよい。さらには、ユーザに提示せずに、基準座標系における指標の配置情報の計測が可能になったら自動的に配置情報を算出するようにしてもよい。
[変形例3−2]
本実施形態では、基準座標系における指標の配置情報の計測が可能かどうかを基準座標系を表す3次元モデルを描画することによりユーザに提示していた。この方法では、基準座標系を表す3次元モデルの大きさを固定すると図12(a)に示すように画面からはみ出す可能性がある。そのため、図12(b)に示すように、カメラの位置及び姿勢、焦点距離を用いて、常に基準座標系を表す3次元モデルが画面内に含まれるように大きさを調節してもよい。さらには、基準座標系を表す3次元モデルの大きさを変えるのではなく、図12(c)に示すように、各座標軸を表すテキスト情報が常に画面内に含まれるように表示位置を調節してもよい。
[第4の実施形態]
第2の実施形態では、各指標が撮影された方向を指標の内部領域を分割して平面上における方向に変換して表示していた。しかし、本発明は、指標の撮影された方向を平面に変換して表示することに限定するものではない。
第4の実施形態では、各指標が撮影された方向、距離、撮影回数(以降、指標が撮影されたときの夫々の情報を撮影情報と呼ぶ)を、各指標に対応する3次元オブジェクトに表示する。この3次元オブジェクトを表示することにより、ユーザが次にどの指標をどの撮影方向や距離で撮影するべきかをわかるようにする。なお、本実施形態では、3次元オブジェクトとして図15(a)、(b)のように半球形状のオブジェクト1510を表示する。本実施形態では、対応する指標の撮影された方向と撮影回数に応じて半球オブジェクト表面の一部の色を変化させている。
このように指標の3次元撮影方向を示すオブジェクト1510で指標の撮影情報を表示することで、現在見ている方向の情報のみを強調して表示させることができる。すなわち、3次元オブジェクト1510を投影面に射影する描画処理(透視投影、陰面消去)の効果により、現在見えている方向における撮影情報の面積が他の方向に比べて広く描画される。すなわち、3次元オブジェクト1510に設定された色などの属性情報が、平面に属性情報を表示したときに比べて広い領域で描画される。この効果により、ユーザは画面上の色の面積という比較的簡単な判断基準によって撮影するべきかどうかを判断できるようになる。例えば、図15の(a)に示す撮影位置からユーザがシーンを観察する場合を考える。この撮影位置においては、図15の(a)のような画像がユーザに提示される。提示される画像には、既に指標が撮影されたことを示す色が3次元オブジェクト1510に表示されているため、ユーザは画像を撮影する必要がないと判断できる。また、別の撮影位置に移動して図15(b)のような画像が得られたとする。提示される画像の見えている3次元オブジェクト1510の面上には、まだ撮影されていないことを示す色が表示されている。この画像から、ユーザは画像を撮影する必要があると判断できる。
また、指標付近に指標が撮影されたときの指標検出精度1520を提示することで、これまでに撮影した指標の検出精度(検出信頼度)を数値で知ることができ、精度の高い撮影位置をフィードバックすることができる。
本実施形態における指標配置情報校正装置の機能構成を示すブロック図を図14に示す。本実施形態における指標配置情報校正装置の機能構成は、第3の実施形態の指標配置情報校正装置に類似している。なお、重複部分の詳細な説明は省略する。
第3の実施形態と同様に、撮像部800は指標が配置されたシーンや物体を常に撮影しており、撮影した画像を画像入力部810経由でコンピュータに入力する。画像入力部810によってコンピュータ内に取り込まれた画像から、指標検出部820によって指標を検出する。さらに指標同定部830によって、検出された指標の同定を行い、指標の同定結果をデータ管理部1440に保存する。
データ管理部1440は、指標同定部830から入力された指標の同定結果を入力する。操作部880の指示により、現在ビデオカメラによって撮影されている画像を取得する命令が入力された場合には、指標同定部830から入力された指標の同定結果をデータ保存部1450に保存する。
データ保存部1450には、複数の画像についての指標の同定結果が保存されている。指標の同定結果は、
・画像番号
・指標の識別子
・指標内部の正方形の4頂点の画像座標
・ビデオカメラの相対位置及び姿勢(算出可能な場合のみ)
の組として保存される。
解析部1460は、ユーザの操作により操作部880から、ビデオカメラによって現在撮影されている画像を取得する命令が入力され、指標同定部830から入力された指標の同定結果がデータ保存部1450に保存されたときに、データ保存部1450に保存された全ての指標の同定結果を解析する。本実施形態において、解析部1460は、第3の実施形態で挙げられている計測対象の配置情報が基準座標系において算出可能かどうかの判定の他に、以下の情報を算出する。すなわち、指標の同定結果から、画像に写る夫々の指標ごとに
・指標の識別子
・撮影時の3次元方向(以降、3次元撮影方向と呼ぶ)
・相対基準座標系における撮影時の距離(以降、撮影距離と呼ぶ)
・指標の3次元撮影方向に対応付けた3次元オブジェクトの面の撮影回数
・指標検出精度
を対応付けて保存する。夫々の解析結果の算出方法については後述する。
夫々の指標ごとに解析された解析結果は表示部1470に出力される。
表示部1470は、画像入力部810に入力される画像を随時画面上に表示する。このとき、解析部1460が出力する解析結果に基づいて、指標付近に指標の撮影情報を示す3次元オブジェクト1510と指標検出精度1520を提示する。図15(a)は、同定された各指標に対して3次元オブジェクト1510をユーザに提示する例を示す図である。本実施例においては、指標の撮影情報を示す3次元オブジェクト1510として正20面体を球面に投影し正三角形で曲面を分割したジオデシックドーム形状を利用する。なお本実施形態では、指標の中心点を通る法線ベクトルと平行な直線がジオデシックドームの天頂頂点を通るように3次元オブジェクト1510を配置する。さらに、指標が検出されない水平方向は表示する必要がないため、図15(a)に示すように、3次元オブジェクト1510の底面が指標からあらかじめ決めた一定距離だけ離れるように、法線方向に移動させて表示する。
本実施系における指標配置情報計測方法の処理の手順は、図11で示す第3の実施形態における処理の手順と類似している。以下は差分となる処理であるステップS1130、S1160、S1170のみを説明する。
ステップS1130では、表示部1470が、まず、ステップS1170で解析部1460が算出した解析結果のうち、指標の3次元撮影方向を示す3次元オブジェクト1510の各面の撮影回数を参照して色を決定する。3次元オブジェクトの撮影回数の算出方法は後述する。本実施形態においては、3次元オブジェクト1510の面の色を、面の撮影回数が0回で白、撮影回数1回で灰色、撮影回数2回以上で黒に設定する。このように、重複した方向から撮影された場合に面の色を変更することにより、3次元撮影方向をなるべく分散させるように教示することができる。なお、本発明は、本実施形態における配色の回数や表示色に限定されるものではなく、ユーザが指標の撮影方向と撮影回数を判別でき、現在見えている範囲の撮影情報が強調される方法であれば適用可能であることは本実施形態の説明により明らかである。
また、表示部1470は、図15(a)に示すように夫々の指標付近に解析部1460が算出した指標検出精度1520の数値を、指標付近に表示する。数値の表示位置は、例えば、指標が配置されている平面と同じ平面上で指標の中心点からあらかじめ指定した方向と距離を考慮した3次元位置に表示すればよい。
最後に、表示部1470は、位置姿勢算出部900で得られたビデオカメラの位置姿勢に基づいて、3次元オブジェクト1510と指標検出精度1520を描画した画像を生成し、撮像画像上に合成して表示する。
ステップS1160では、ステップS1110において検出され、同定された指標について、画像番号−指標の識別子−指標内部の正方形の4頂点の画像座標の組(点指標の場合には該点指標の画像座標)−ビデオカメラの相対位置及び姿勢をデータ保存部1450に保存し、ステップS1170に進む。なお、ビデオカメラの相対位置姿勢に関しては、ステップS1120で算出できた場合にのみ格納する。
ステップS1170では、解析部1460がデータ保存部1450に保存されたすべての指標の同定結果を解析する。すなわち、第3の実施形態で挙げた基準座標系における配置情報が計測可能かどうかの判定に加え、夫々の指標の3次元撮影方向に対応付けた撮影回数、3次元撮影方向、撮影距離、指標検出精度1520を算出する。
指標の3次元撮影方向、撮影距離、指標の3次元撮影方向に対応付けた撮影回数は、例えば以下のように決定する。図16〜図18は面の撮影回数を説明する図である。なお、以下の処理は、同定結果として得られたデータセットごとに実施する。
まず、データ保存部1450に保存された同定結果を参照し、ビデオカメラにより撮影されたときの位置1610を取得する。このとき、指標の中心点から撮影位置1610までのベクトルの方向を3次元撮影方向とし、ベクトルの長さを撮影距離として解析部1460に保存する。次に、撮影位置1610を円錐の底面の円中心とし、指標の中心点を円錐の天頂の頂点とする円錐1620を生成する。このとき円錐の底面円の半径は、あらかじめ固定の数値を利用してもよいし、撮影距離やビデオカメラの画角などに応じて変更しても良い。
次に、図17のように、円錐1620と3次元オブジェクト1510が重なる領域1710を公知の交点計算により求める。さらに、図18のように、重なる領域1710と重なる3次元オブジェクト1510の面の撮影回数カウントを1つ上げる。この各面のカウント数を解析部1460に保存する。
指標検出精度1520は、撮像画像から指標を検出したときのカメラの相対位置姿勢推定精度を表している。このカメラ相対位置姿勢の推定精度は、例えば非特許文献5の方法を3次元方向に拡張した方法で求める。すなわち、まず、あらかじめ指標が撮像されうる3次元方向を想定した複数の既知のカメラ相対位置姿勢から指標を撮像する。次に、指標から得られたカメラ相対位置姿勢と既知の相対位置姿勢との誤差に基づいた精度スコアを3次元方向と距離ごとにテーブルとして保存する。この精度スコアは、例えば、(あらかじめ定めた許容誤差/計測された誤差)で算出する。テーブルはあらかじめ解析部1460に保存するものとする。
さらに指標検出精度1520は、例えば次のように求める。まず、現在までに撮影された3次元撮影方向と距離に基づいてカメラ相対位置姿勢の推定精度テーブルを参照する。次に、3次元撮影方向と距離のうち精度スコアが高い上位2つの値を平均し指標検出精度1520とする。ただし、指標が同定されていない場合は0、指標が1回しか同定されていない場合は得た精度スコアの半分を指標検出精度1520とする。
以上説明したように、本実施形態においては、まず、同定された指標ごとに3次元撮影方向、撮影距離、3次元撮影方向に対応付けた撮影回数、指標検出精度1520を解析部1460によって算出する。次に、表示部1470が解析結果に基づいて3次元オブジェクト1510と指標検出精度1520を表示する。この処理により、ユーザは画面上の色の面積と指標検出精度1520の数値という比較的簡単な判断基準によって撮影するべきかどうかを判断できる。
[変形例4−1]
本発明は、第4の実施形態のように3次元オブジェクト1510としてジオデシックドームを利用することに限定されるものではなく、指標の3次元撮影方向を表す3次元形状であれば適用可能である。例えば、図19のように四角錘台を3次元オブジェクト1510としてもよいし、図20のように、10角形の錘台を3次元オブジェクト1510としてもよい。
本変形例における指標配置情報校正装置の機能構成と処理手順は、表示する3次元オブジェクト1510の形状が異なるだけで、第4の実施形態とほぼ同じであるため説明を省略する。
[変形例4−2]
第4の実施形態においては、指標の3次元撮影方向、撮影回数に応じて3次元オブジェクトの面の色を決定していた。しかし、本発明は、撮影情報を表す表現方法として3次元オブジェクトの面の色を変更することに限定されるものではない。例えば、3次元オブジェクト1510の面の位置を変更することにより、撮影情報を表してもよい。
本変形例では、第4の実施形態と同様に3次元オブジェクト1510の面の色を変更することに加えて、図21に示すように、撮影時の3次元撮影方向と距離に応じて3次元オブジェクト1510の面を半球の中心方向に縮小する。このように、3次元オブジェクト1510の形状を変化させる表示により、撮影時の距離の情報をユーザに提示することができる。
本変形例における指標配置情報校正装置の機能構成は、第4の実施形態における指標配置情報校正装置の機能構成のうち、表示部1470の処理のみが異なる。
本変形例における表示部1470は、解析部1460で得た解析結果から3次元オブジェクト1510の色と奥行きを決定し、指標の配置情報に基づいて表示する。
本変形例における指標配置情報校正装置の処理の手順は、第4の実施形態の処理手順において、ステップS1130の情報提示の処理のみが異なる。
ステップS1130では、第4の実施形態の処理に加え、解析結果に応じて3次元オブジェクトの形状を決定する。3次元オブジェクト1510の各面に対して次の処理をおこなう。まず、解析結果で得られた撮影距離を参照し、撮影距離があらかじめ決められた距離テーブルのうち、どの範囲に入るかを判定する。距離テーブルには、例えば、100%、75%、50%、25%の4つが用意されており、該当する距離に設定された縮小率で3次元オブジェクト1510の面を縮小する。縮小処理においては、図21の2110に示すように半球の中心点を縮小の基準として縮小し、縮小により生じる隙間を塞ぐように面を生成する。隙間を埋めるために生成した面の色については、縮小した面の色と同じ色に設定する。
[変形例4−3]
第4の実施形態では、指標が検出されていない場合であっても、
・基準座標系における該指標の配置情報が算出可能、
・該指標の過去の解析結果が保存されている、
という条件を満たしていれば、検出された指標と同様に3次元オブジェクト1510が表示されていた。
しかし、指標が検出されていない状態をユーザが知る手段がないため、効率よく情報を取得することができなかった。すなわち、ユーザが操作部880を介して画像の撮像を命令しても、指標が検出されていないため指標の配置情報の算出に有益な画像が取得できない場合があった。この課題を防ぐためには、検出されている指標と検出されていない指標とを区別して表示する必要がある。
本変形例では、指標の検出状態に応じて3次元オブジェクト1510の透明度を変化させることで、ユーザに現在の画像が情報を取得するのに適しているかどうかを判断させる。図22に本変形例を適用した場合の例を示す。図22では、右端の指標2220が撮像画像からはみ出し、指標として認識されない状態を示している。このとき、認識されている他の指標と認識されていない指標2220を区別するために、3次元オブジェクト2210の透明度を落としてユーザに提示している。なお、本発明は、指標の認識状態を区別するために透明度を利用することに限定するものではなく、全体の輝度を変化させるなどの色変化や形状を変更するなど、画像上で区別が可能な方法であれば適用可能である。
本変形例における機能構成と処理の手順は第4の実施形態と類似している。異なる点は、表示部1470がステップS1130の処理である。ステップS1130では、表示部1470が、現在の画像の同定結果から現在検出されている指標の識別子のリストを作成する。次に解析結果に応じて3次元オブジェクト1510を描画する。すなわち、解析結果から指標の識別子を取得し、検出された指標の識別子のリストにない場合は、該3次元オブジェクト1510の透明度を上げて描画する。
このように処理することで、ユーザは、現在検出されている指標と検出されていない指標を区別することができるようになり、効率的に指標の配置情報を求めるための撮影ができるようになる。
[変形例4−4]
第4の実施形態では、撮影情報を反映した3次元オブジェクト1510を表示し、画像上に提示することで、現在ユーザが撮影している画像を取得するかどうかの判断を補助していた。
本発明は、3次元オブジェクト1510の色情報をユーザに能動的に注視させて、撮影の判断を補助することに限定するものではない。例えば、画像上に移る3次元オブジェクト1510の色情報を指標配置情報校正装置が自動的に判断し、判断した情報をユーザに提示してもよい。
本変形例においては、第4の実施形態における機能校正及び処理の手順と類似している。差分は、ステップS1130の処理で表示部1470が3次元オブジェクト1510の画像を生成したあとに、画像中の色を統計処理して、画像取得を促す表示を行う部分である。画像中の色を統計処理する手順は、例えば、画像の色のヒストグラムを算出すればよい。
画像取得を促す表示は、例えば、前述の統計処理により得た画像のヒストグラムのうち、白い領域が他の領域に比べて3倍以上の画素を占める場合は画面上に「撮影してください」という文字列を表示すればよい。
なお、本発明は画像取得を促す表示に文字列を利用することに限定されるものではない。例えば、3次元オブジェクト1510の色や形状を変更するなど、ユーザが提示画像から容易に判断できる方法であれば本発明は適用可能である。
[変形例4−5]
変形例4−4では、3次元オブジェクト1510の生成画像における色の頻度分布に基づいてユーザに撮影を促す表示を実施した。しかし、本発明はユーザに撮影を促す表示に限定されるものではなく、統計処理の結果から指標配置情報校正装置が自動的に判断し画像を取得してもよい。すなわち、表示部1470が3次元オブジェクト1510の画像を統計処理し、処理結果に基づいて操作部880を介して画像取得命令を出せばよい。
[変形例4−6]
第4の実施形態では、解析部1460が過去の取得撮像画像を利用して解析した解析結果に基づいて3次元オブジェクト1510と指標検出精度1520を提示していた。
本発明は、過去の取得撮像画像に対して解析処理を行うことに限定されるものではなく、現在取得された画像中で同定されている指標を解析して、逐次3次元オブジェクト1510や指標検出精度1520を更新してもよい。
本変形例では、現在撮影された画像で同定された指標に対して解析処理を行う例を示す。
本変形例における指標配置情報計測装置の機能構成は第4の実施形態と類似している。以降では、差分のみを説明する。
データ管理部1440は、指標同定部830で得られた指標の同定結果を、操作部880の指示に関わらずデータ保存部1450に保存する。
解析部1460は、操作部880から画像取得の命令が来ていないことを判断して、データ保存部1450に追加された同定結果を受け、仮の解析結果を生成する。仮の解析結果は、解析部1460内部に保持している解析結果をコピーして新たに入力された同定結果を反映したデータであり、解析結果とは別に保存される。仮の解析結果は、次に新しい同定結果を受け取った場合には消去される。操作部880から画像取得の命令が入った場合には、通常の解析結果を保存する。
図23は、本変形例における指標配置情報計測装置の処理の手順を示すフローチャートである。本変形例の処理手順は第4の実施形態の処理手順と類似しているため、差分のみを説明する。
ステップS2310では、第4の実施形態のステップS1150と同様に操作部880から画像を取得する命令が入力されたかどうかを判定する。入力されたと判定された場合にはステップS1130に進み、そうでない場合にはステップS2320に進む。
ステップS2320では、解析部1460が、同定結果に基づいて仮の解析結果を生成する。解析処理に関しては、解析結果データの保存先が通常の解析結果とは異なるメモリ領域に書き込むこと以外は第4の実施形態のステップS1170と同じである。
ステップS2330では、表示部1470が、操作部880の画像取得命令が入力されたかどうかを判断し、入力されていた場合は解析部1460内部の解析結果に基づいて3次元オブジェクト1510を描画する。画像取得命令が入力されていない場合は、解析部1460内部の仮の解析結果に基づいて3次元オブジェクト1510を描画する。その他の処理は第4の実施形態におけるステップS1130の処理と同じである。
以上の説明のように、本変形例に係る指標配置情報計測装置では、現在撮影している撮像画像においても画像取得命令があった場合と同様に解析処理を行い、解析結果をユーザに提示することができる。この処理により、現在取得されている画像を取得した結果が、提示画像を介してユーザにすぐにフィードバックされる。すなわち、ユーザは画像取得命令を出して失敗だと判断する前に、結果を提示することができるため効率的に画像を取得できる。
なお、本発明は、画像取得命令がない限り常に仮の解析処理を実施して表示することに限定されるものではない。例えば、ユーザが操作部880を介して仮の解析処理結果を表示する命令を入力した場合のみ表示してもよい。
[その他の変形例]
上述した実施形態では、シーンや物体に配置された指標の較正、すなわち指標の位置及び姿勢を計測する際に、過去の指標の撮影回数や、指標の撮影方向の情報、基準座標系をユーザに提示していたが、指標の較正にのみ限るものではなく、指標を使って他の情報を較正するものであってもよい。
例えば、磁気式の6自由度位置姿勢センサの較正(トランスミッタの基準座標系に対する位置及び姿勢、レシーバの計測対象(例えばカメラ)座標系に対する位置及び姿勢)を、空間中に配置した指標を撮影した画像をもとに行う際には、上述した実施形態を適用し、ユーザが指標の撮影回数や撮影方向についての情報の提示を受けながら、次に撮影すべき指標や方向を決定してもよい。
また、上述した実施の形態の機能を実現する様に各種のデバイスを動作させる様に該各種デバイスと接続された装置あるいはシステム内のコンピュータに、前記実施の形態の機能を実現するためのソフトウエアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)を格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも本発明の範疇に含まれる。
この場合、前記ソフトウエアのプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。
かかるプログラムコードを格納する記憶媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。
また、コンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
更に、供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれることは言うまでもない。
第1の実施形態における指標配置情報較正装置の機能構成を示すブロック図である。 本実施形態で用いられる指標を説明する図である。 指標の撮影回数に応じた提示方法を示す図である。 第1の施形態における指標配置情報較正方法の処理の手順を示すフローチャートである。 第2の実施形態における指標配置情報較正装置の機能構成を示すブロック図である。 第2の実施形態における過去にどの方向から撮影されたかの情報を提示する方法を示す図である。 第2の施形態における指標配置情報較正方法の処理の手順を示すフローチャートである。 第3の実施形態における指標配置情報計測装置の機能構成を示すブロック図である。 第3の実施形態で用いられる点指標を説明する図である。 第1の実施形態における情報提示方法を示す図である。 第1の実施形態における指標配置情報計測方法の処理の手順を示すフローチャートである。 変形例3−2における情報提示方法を示す図である。 変形例3−1における情報提示方法を示す図である。 第4の実施形態における指標配置情報計測装置の機能構成を示すブロック図である。 第4の実施形態における情報提示方法を示す図である。 第4の実施形態における3次元オブジェクト1510の面の撮影回数の算出方法を示す模式図である。 第4の実施形態における3次元オブジェクト1510の面の撮影回数の算出方法を示す模式図である。 第4の実施形態における3次元オブジェクト1510の面の撮影回数の算出方法を示す模式図である。 変形例4−1における情報提示方法を示す図である。 変形例4−1における情報提示方法を示す図である。 変形例4−2における情報提示方法を示す図である。 変形例4−3における情報提示方法を示す図である。 変形例4−5における指標配置情報計測方法の処理の手順を示すフローチャートである。

Claims (17)

  1. 撮像装置により撮影された撮影画像を取得する画像取得手段と、
    前記撮影画像から指標を検出する指標検出手段と、
    前記指標検出手段において検出された指標を同定する指標同定手段と、
    前記指標同定手段における同定結果から、前記指標の配置情報を算出する配置情報算出手段と、
    前記指標同定手段における同定のために各指標をどのように撮影してきたかを示す撮影履歴を解析する解析手段と、
    前記撮影履歴と各指標との対応付けに基づいて、前記解析手段における解析結果に応じた画像を前記撮影画像上に合成して表示する表示手段とを備えることを特徴とする指標配置情報計測装置。
  2. 前記解析手段は、前記指標同定手段における同定情報をもとに各指標の撮影回数を計数し、
    前記表示手段は前記撮影回数に応じた情報を各指標に対応付けて表示することを特徴とする請求項1記載の指標配置情報計測装置。
  3. 撮像装置により撮影された撮影画像を取得する画像取得手段と、
    前記撮影画像から指標を検出する指標検出手段と、
    前記指標検出手段において検出された指標を同定する指標同定手段と、
    前記指標同定手段における同定結果から、前記指標の配置情報を算出する配置情報算出手段と、
    該指標同定手段における同定情報をもとに各指標の撮影回数を計数することにより、前記指標同定手段における同定のために各指標をどのように撮影してきたかを示す撮影履歴を解析する解析手段と、
    前記撮影回数に応じた情報を前記撮影履歴として各指標に対応付けて、前記解析手段における解析結果に応じた画像を前記撮影画像上に合成して表示する表示手段と
    を備えることを特徴とする指標配置情報計測装置。
  4. 前記解析手段は、前記指標同定手段における同定情報及び前記撮像装置の位置及び姿勢をもとに各指標の撮影方向、撮影距離、撮影位置の少なくともいずれかを計算し、
    前記表示手段は、前記撮影方向、前記撮影距離、前記撮影位置に応じた情報を表示することを特徴とする請求項1乃至3の何れか1項に記載の指標配置情報計測装置。
  5. 前記画像を撮影したときの前記撮像装置の位置及び姿勢を算出する位置姿勢算出手段を更に備えることを特徴とする請求項1乃至4の何れか1項に記載の指標配置情報計測装置。
  6. 前記表示手段は、各指標同士の相対的な位置を表す画像を前記撮影画像上に合成して表示することを特徴とする請求項1乃至5の何れか1項に記載の指標配置情報計測装置。
  7. 基準座標系における既知の配置情報を持つ基準指標を設定する設定手段を備え、
    前記解析手段は、前記基準指標の同定情報をもとに基準座標系における指標の配置情報が計算が可能かどうかを判定し、前記表示手段は、計算が可能であれば前記基準座標系を表す画像を前記撮影画像上に合成して表示することを特徴とする請求項1乃至6のいずれか1項に記載の指標配置情報計測装置。
  8. 前記表示手段は、前記撮像装置の位置及び姿勢に基づき、前記解析結果に応じた画像を生成する生成手段と、
    前記生成された解析結果に応じた画像を前記撮影画像に合成する合成手段とを有し、
    前記合成手段は前記解析結果に応じた画像を成することを特徴とする請求項1乃至のいずれか1項に記載の指標配置情報計測装置。
  9. 前記表示手段は、前記解析手段による解析結果を、対応する指標が配置された面と同一平面上に提示することを特徴とする請求項1乃至のいずれか1項に記載の指標配置情報計測装置。
  10. 前記表示手段は、前記解析手段における解析結果に基づいて、前記各指標3次元形状モデルに対応付けられた情報を提示することを特徴とする請求項1乃至のいずれか1項に記載の指標配置情報計測装置。
  11. 前記表示手段は、前記解析手段における解析結果に基づいて前記3次元形状モデルの表面の複数部位ごとに色を変化させた画像を表示することを特徴とする請求項10に記載の指標配置情報計測装置。
  12. 前記表示手段は、前記解析手段における解析結果に基づいて前記3次元形状モデルの形状を変化させた画像を表示することを特徴とする請求項10又は11に記載の指標配置情報計測装置。
  13. 前記解析手段は、対応する指標の撮影された方向、距離、位置、撮影回数、指標同定結果の少なくとも1つを算出することを特徴とする請求項1乃至12のいずれか1項に記載の指標配置情報計測装置。
  14. 前記解析手段は、各指標の撮影方向、撮影距離、撮影位置の少なくとも一つの情報に基づいて指標の検出信頼度を算出し、検出信頼度に基づいて前記解析結果を決定し、
    前記表示手段に前記解析結果を表示することを特徴とする請求項1乃至13のいずれか1項に記載の指標配置情報計測装置。
  15. コンピュータを用いて、請求項1乃至14のいずれか1項に記載の指標配置情報計測装置を実現するためのプログラム。
  16. 撮像手段により撮影された撮影画像を取得する画像取得工程と、
    前記撮影画像から指標を検出する指標検出工程と、
    前記指標検出工程において検出された指標を同定する指標同定工程と、
    前記指標同定工程における同定結果から、前記指標の配置情報を算出する配置情報算出工程と、
    前記指標同定工程における同定のために各指標をどのように撮影してきたかを示す撮影履歴を解析する解析工程と、
    前記撮影履歴と各指標との対応付けに基づいて、前記解析工程における解析結果に応じた画像を前記撮影画像上に合成する合成工程と
    を有することを特徴とする指標配置情報計測方法。
  17. 撮像手段により撮影された撮影画像を取得する画像取得工程と、
    前記撮影画像から指標を検出する指標検出工程と、
    前記指標検出工程において検出された指標を同定する指標同定工程と、
    前記指標同定工程における同定結果から、前記指標の配置情報を算出する配置情報算出工程と、
    該指標同定工程における同定情報をもとに各指標の撮影回数を計数することにより、前記指標同定工程における同定のために各指標をどのように撮影してきたかを示す撮影履歴を解析する解析工程と、
    前記撮影回数に応じた情報を前記撮影履歴として各指標に対応付けて、前記解析工程における解析結果に応じた画像を前記撮影画像上に合成する合成工程と
    を有することを特徴とする指標配置情報計測方法。
JP2007131573A 2006-08-11 2007-05-17 指標配置情報計測装置および方法 Active JP4926817B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007131573A JP4926817B2 (ja) 2006-08-11 2007-05-17 指標配置情報計測装置および方法
US11/836,085 US8081815B2 (en) 2006-08-11 2007-08-08 Marker arrangement information measuring apparatus and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006219845 2006-08-11
JP2006219845 2006-08-11
JP2007131573A JP4926817B2 (ja) 2006-08-11 2007-05-17 指標配置情報計測装置および方法

Publications (2)

Publication Number Publication Date
JP2008065807A JP2008065807A (ja) 2008-03-21
JP4926817B2 true JP4926817B2 (ja) 2012-05-09

Family

ID=39288441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007131573A Active JP4926817B2 (ja) 2006-08-11 2007-05-17 指標配置情報計測装置および方法

Country Status (2)

Country Link
US (1) US8081815B2 (ja)
JP (1) JP4926817B2 (ja)

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7650031B2 (en) * 2004-11-23 2010-01-19 Microsoft Corporation Method and system for detecting black frames in a sequence of frames
JP4530419B2 (ja) * 2006-03-09 2010-08-25 任天堂株式会社 座標算出装置および座標算出プログラム
JP4757142B2 (ja) * 2006-08-10 2011-08-24 キヤノン株式会社 撮影環境校正方法及び情報処理装置
JP5507797B2 (ja) * 2007-03-12 2014-05-28 キヤノン株式会社 頭部装着型撮像表示装置及び画像生成装置
JP5196825B2 (ja) * 2007-03-29 2013-05-15 キヤノン株式会社 画像処理装置、画像処理方法
US9147213B2 (en) * 2007-10-26 2015-09-29 Zazzle Inc. Visualizing a custom product in situ
JP4956375B2 (ja) * 2007-10-30 2012-06-20 キヤノン株式会社 画像処理装置、画像処理方法
WO2009148210A1 (en) * 2008-06-02 2009-12-10 Lg Electronics Inc. Virtual optical input unit and control method thereof
WO2010029553A1 (en) * 2008-09-11 2010-03-18 Netanel Hagbi Method and system for compositing an augmented reality scene
JP5421624B2 (ja) 2009-03-16 2014-02-19 株式会社トプコン 三次元計測用画像撮影装置
JP5281477B2 (ja) * 2009-05-15 2013-09-04 パナソニック株式会社 設計支援方法、設計支援システムおよび設計支援装置
US9213920B2 (en) 2010-05-28 2015-12-15 Zazzle.Com, Inc. Using infrared imaging to create digital images for use in product customization
EP2395766B1 (en) 2010-06-14 2016-03-23 Nintendo Co., Ltd. Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
US8442295B2 (en) * 2010-06-29 2013-05-14 Analogic Corporation Anti-counterfeiting / authentication
JP5652097B2 (ja) * 2010-10-01 2015-01-14 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
WO2012046276A1 (ja) * 2010-10-06 2012-04-12 三菱電機株式会社 Avシステム
JP2012128578A (ja) * 2010-12-14 2012-07-05 Ntt Docomo Inc 携帯端末および画像処理方法
JP2011134343A (ja) * 2011-02-24 2011-07-07 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5697487B2 (ja) * 2011-02-25 2015-04-08 任天堂株式会社 画像処理システム、画像処理方法、画像処理装置、および画像処理用プログラム
JP5704963B2 (ja) * 2011-02-25 2015-04-22 任天堂株式会社 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム
JP5702653B2 (ja) * 2011-04-08 2015-04-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5812665B2 (ja) * 2011-04-22 2015-11-17 任天堂株式会社 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム
US9058687B2 (en) 2011-06-08 2015-06-16 Empire Technology Development Llc Two-dimensional image capture for an augmented reality representation
CA2784047C (en) 2011-07-29 2015-08-11 Milwaukee Electric Tool Corporation Tape measure
US9080849B2 (en) 2011-07-29 2015-07-14 Milwaukee Electric Tool Corporation Tape measure
US8863399B2 (en) 2011-08-26 2014-10-21 Milwaukee Electric Tool Corporation Tape measure
WO2013033643A1 (en) 2011-08-31 2013-03-07 Zazzle.Com, Inc. Product options framework and accessories
US9648301B2 (en) * 2011-09-30 2017-05-09 Moon Key Lee Image processing system based on stereo image
JP5988563B2 (ja) * 2011-10-25 2016-09-07 キヤノン株式会社 画像処理装置と画像処理装置の制御方法およびプログラムと、情報処理装置と情報処理装置の制御方法およびプログラム
JP5821526B2 (ja) 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP6121647B2 (ja) 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9267778B2 (en) 2012-01-19 2016-02-23 Milwaukee Electric Tool Corporation Tape measure
US9338447B1 (en) * 2012-03-14 2016-05-10 Amazon Technologies, Inc. Calibrating devices by selecting images having a target having fiducial features
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
USD733597S1 (en) 2012-07-30 2015-07-07 Milwaukee Electric Tool Corporation Tape measure
JP5991423B2 (ja) 2013-02-21 2016-09-14 富士通株式会社 表示装置、表示方法、表示プログラムおよび位置設定システム
US8712566B1 (en) 2013-03-14 2014-04-29 Zazzle Inc. Segmentation of a product markup image based on color and color differences
US20140270477A1 (en) * 2013-03-14 2014-09-18 Jonathan Coon Systems and methods for displaying a three-dimensional model from a photogrammetric scan
JP6318519B2 (ja) * 2013-09-26 2018-05-09 カシオ計算機株式会社 画像処理装置、プログラム及び制御方法
JP6338369B2 (ja) * 2013-12-26 2018-06-06 キヤノン株式会社 情報処理装置および情報処理方法
DE102014106718B4 (de) 2014-05-13 2022-04-07 Immersight Gmbh System, welches eine Blickfelddarstellung in einer gegenständlichen Lage in einem veränderbaren Raumwinkelbereich darbietet
DE202014011540U1 (de) 2014-05-13 2022-02-28 Immersight Gmbh System insbesondere zur Darbietung einer Blickfelddarstellung und Videobrille
JP6281409B2 (ja) * 2014-05-26 2018-02-21 富士通株式会社 表示制御方法、情報処理プログラム、及び情報処理装置
KR101615086B1 (ko) * 2014-05-29 2016-04-27 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 마커부 자세 산출방법
US9626764B2 (en) 2014-07-01 2017-04-18 Castar, Inc. System and method for synchronizing fiducial markers
JP6413521B2 (ja) * 2014-09-08 2018-10-31 富士通株式会社 表示制御方法、情報処理プログラム、及び情報処理装置
EP3264099B1 (en) 2015-02-24 2021-05-19 Hitachi High-Tech Corporation Automatic analysis apparatus
JP6507730B2 (ja) * 2015-03-10 2019-05-08 富士通株式会社 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム
JP6723798B2 (ja) 2015-05-20 2020-07-15 キヤノン株式会社 情報処理装置、方法、プログラム
WO2016185704A1 (en) * 2015-05-20 2016-11-24 Canon Kabushiki Kaisha Information processing apparatus, method, and program
JP6662382B2 (ja) * 2015-06-23 2020-03-11 ソニー株式会社 情報処理装置および方法、並びにプログラム
USD785475S1 (en) 2015-12-10 2017-05-02 Milwaukee Electric Tool Corporation Tape measure
USD785476S1 (en) 2015-12-10 2017-05-02 Milwaukee Electric Tool Corporation Tape measure
USD783430S1 (en) 2016-01-07 2017-04-11 Milwaukee Electric Tool Corporation Tape measure
USD787347S1 (en) 2016-01-07 2017-05-23 Milwaukee Electric Tool Corporation Tape measure
USD783429S1 (en) 2016-01-07 2017-04-11 Milwaukee Electric Tool Corporation Tape measure
TR201603524A2 (ja) * 2016-03-18 2016-08-22 Anadolu Ueniversitesi
JP5988286B1 (ja) * 2016-04-01 2016-09-07 株式会社Cygames プログラム及び画像処理装置
DE102016006232A1 (de) * 2016-05-18 2017-11-23 Kuka Roboter Gmbh Verfahren und System zur Ausrichtung eines virtuellen Modells an einem realen Objekt
US10497112B2 (en) * 2016-05-31 2019-12-03 ETAK Systems, LLC Cell site audit and inspection systems and methods related to battery and equipment connections
USD788611S1 (en) 2016-06-01 2017-06-06 Milwaukee Electric Tool Corporation Tape measure
EP3264360B1 (en) * 2016-06-28 2025-01-22 Dassault Systèmes Dynamical camera calibration
EP3264359B1 (en) 2016-06-28 2025-02-19 Dassault Systèmes A computer-implemented method of calibrating a camera
KR102798196B1 (ko) * 2017-01-12 2025-04-22 삼성전자주식회사 마커를 검출하기 위한 방법 및 그 전자 장치
JP6714110B2 (ja) * 2017-02-03 2020-06-24 三井住友建設株式会社 位置測定装置及び位置測定方法
US10489651B2 (en) * 2017-04-14 2019-11-26 Microsoft Technology Licensing, Llc Identifying a position of a marker in an environment
US10699409B2 (en) * 2017-04-27 2020-06-30 Brainlab Ag Removing ghost markers from a measured set of medical markers
WO2018221198A1 (ja) * 2017-05-31 2018-12-06 株式会社フジキン 半導体製造装置の管理システム、方法、及びコンピュータプログラム
US11007015B2 (en) * 2018-01-29 2021-05-18 Queen's University At Kingston Apparatus and method for tracking a volume in a three-dimensional space
JP6784944B2 (ja) * 2018-03-26 2020-11-18 カシオ計算機株式会社 投影制御装置、マーカ検出方法及びプログラム
CN110555882B (zh) * 2018-04-27 2022-11-15 腾讯科技(深圳)有限公司 界面显示方法、装置及存储介质
CN110555358B (zh) * 2018-06-01 2023-09-12 苹果公司 用于检测和识别ar/vr场景中的特征部的方法和设备
CN112566581B (zh) 2018-08-10 2024-03-19 柯惠有限合伙公司 用于消融可视化的系统
JP7182976B2 (ja) 2018-09-27 2022-12-05 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
CN112955930A (zh) 2018-10-30 2021-06-11 Alt有限责任公司 用于对移动对象进行反向光学跟踪的系统和方法
GB201818357D0 (en) * 2018-11-12 2018-12-26 Forsberg Services Ltd Locating system
US12412155B2 (en) 2019-05-07 2025-09-09 Zazzle Inc. System and method for role-based collaborative design of custom products based on manufacturing constraints
WO2020256745A1 (en) * 2019-06-21 2020-12-24 Hewlett-Packard Development Company, L.P. Image-based soundfield rendering
JP7404011B2 (ja) * 2019-09-24 2023-12-25 東芝テック株式会社 情報処理装置
JP7442168B2 (ja) * 2019-10-07 2024-03-04 株式会社リトプラ 映像処理システム
WO2021104985A1 (en) * 2019-11-25 2021-06-03 Surgvision Gmbh Testing of a luminescence imaging apparatus with automatic detection of a testing device
CN113055581B (zh) * 2019-12-26 2022-07-22 北京百度网讯科技有限公司 图像拍摄方法、装置及电子设备
CN113330487B (zh) * 2019-12-30 2025-03-28 深圳引望智能技术有限公司 参数标定方法及装置
JP7452015B2 (ja) * 2020-01-09 2024-03-19 富士通株式会社 判定プログラム、判定方法、判定装置
CN113643356B (zh) * 2020-04-27 2024-05-28 北京达佳互联信息技术有限公司 相机位姿确定、虚拟物体显示方法、装置及电子设备
US12118598B2 (en) 2021-03-30 2024-10-15 Zazzle Inc. Generating and using tokens to request services and access to a product collaboration platform
US12314992B2 (en) 2021-10-21 2025-05-27 Zazzle Inc. Method and computer readable storage media for interfacing with third party platforms via collaboration sessions to customize products
CN116934844B (zh) * 2023-05-06 2025-09-12 北京优锘科技股份有限公司 一种自动优化目标观察点的方法、装置及系统
WO2025123037A1 (en) * 2023-12-08 2025-06-12 See All AI Inc. System and method for generation of registration transform for surgical navigation
CN117450955B (zh) * 2023-12-21 2024-03-19 成都信息工程大学 基于空间环形特征的薄型物体三维测量方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737056A (ja) * 1993-07-19 1995-02-07 Toshiba Corp 医用診断支援装置
DE69721085T2 (de) * 1996-05-14 2004-04-22 Honeywell International Inc. Autonomes Landeführungssystem
JPH1184307A (ja) 1997-09-01 1999-03-26 M R Syst Kenkyusho:Kk 頭部装着型の光学装置
JP3976900B2 (ja) 1998-07-23 2007-09-19 キヤノン株式会社 視点位置姿勢の決定方法及びカメラ装置
JP3817505B2 (ja) * 2002-09-27 2006-09-06 キヤノン株式会社 情報処理方法及び情報処理装置
JP4346950B2 (ja) * 2003-05-02 2009-10-21 キヤノン株式会社 情報処理方法および装置
KR100816589B1 (ko) * 2003-07-24 2008-03-24 올림푸스 가부시키가이샤 화상 처리 장치
JP4522140B2 (ja) * 2004-05-14 2010-08-11 キヤノン株式会社 指標配置情報推定方法および情報処理装置
JP4551839B2 (ja) * 2004-08-16 2010-09-29 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP4689380B2 (ja) * 2004-09-28 2011-05-25 キヤノン株式会社 情報処理方法および装置
JP4976756B2 (ja) * 2006-06-23 2012-07-18 キヤノン株式会社 情報処理方法および装置

Also Published As

Publication number Publication date
JP2008065807A (ja) 2008-03-21
US20080285854A1 (en) 2008-11-20
US8081815B2 (en) 2011-12-20

Similar Documents

Publication Publication Date Title
JP4926817B2 (ja) 指標配置情報計測装置および方法
JP4532982B2 (ja) 配置情報推定方法および情報処理装置
JP4522140B2 (ja) 指標配置情報推定方法および情報処理装置
JP4599184B2 (ja) 指標配置計測方法、指標配置計測装置
US9325969B2 (en) Image capture environment calibration method and information processing apparatus
JP5196825B2 (ja) 画像処理装置、画像処理方法
JP2002092647A (ja) 情報呈示システム及びモデル誤差検出システム
JP2006099188A (ja) 情報処理方法および装置
JP4242529B2 (ja) 関連情報呈示装置及び関連情報呈示方法
JP4739004B2 (ja) 情報処理装置及び情報処理方法
JP2005107965A (ja) 指標同定方法および装置
JP2006267879A (ja) 画像処理方法、画像処理装置、マーカ
JP2008046749A (ja) 画像処理方法および装置
JP4810403B2 (ja) 情報処理装置、情報処理方法
JP2016065830A (ja) 画像処理装置、画像処理方法
JP2008140047A (ja) 情報処理方法、情報処理装置
JP5127165B2 (ja) 情報処理方法および装置
JP2005107966A (ja) 指標識別方法および装置
JP2010118002A (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100511

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4926817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3