JP5111210B2 - 画像処理装置、画像処理方法 - Google Patents
画像処理装置、画像処理方法 Download PDFInfo
- Publication number
- JP5111210B2 JP5111210B2 JP2008101814A JP2008101814A JP5111210B2 JP 5111210 B2 JP5111210 B2 JP 5111210B2 JP 2008101814 A JP2008101814 A JP 2008101814A JP 2008101814 A JP2008101814 A JP 2008101814A JP 5111210 B2 JP5111210 B2 JP 5111210B2
- Authority
- JP
- Japan
- Prior art keywords
- group
- orientation information
- image
- orientation
- line segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
加藤, M. Billinghurst, 浅野, 橘, "マーカー追跡に基づく拡張現実感システムとそのキャリブレーション", 日本バーチャルリアリティ学会論文誌, vol.4, no.4, pp.607-617, 1999. G. Simon, A. W. Fitzgibbon, and A. Zisserman, "Markerless tracking using planar structures in the scene," Proc. The 1st IEEE/ACM International Symposium on Augmented Reality (ISAR2000), pp.120-128, 2000. I. Skrypnyk and D. G. Lowe, "Scene modelling, recognition and tracking with invariant image features," Proc. The 3rd IEEE/ACM International Symposium on Mixed and Augmented Reality (ISMAR04), pp.110-119, 2004. T. Drummond and R. Cipolla, "Real-time visual tracking of complex structures," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002. A. I. Comport, E. Marchand, and F. Chaumette, "A real-time tracker for markerless augmented reality," Proc. The 2nd IEEE/ACM International Symposium on Mixed and Augmented Reality (ISMAR03), pp.36-45, 2003. L. Vacchetti, V. Lepetit, and P. Fua, "Combining edge and texture information for real-time accurate 3D camera tracking," Proc. The 3rd IEEE/ACM International Symposium on Mixed and Augmented Reality (ISMAR04), pp.48-57, 2004. H. Wuest, F. Vial, and D. Stricker, "Adaptive line tracking with multiple hypotheses for augmented reality," Proc. The Fourth Int’l Symp. on Mixed and Augmented Reality (ISMAR05), pp.62-69, 2005. K. Satoh, S. Uchiyama, H. Yamamoto, and H. Tamura, "Robust vision-based registration utilizing bird’s-eye view with user’s view," Proc. The Second Int’l Symp. on Mixed and Augmented Reality (ISMAR03), pp.46-55, 2003. M. Isard and A. Blake, "CONDENSATION - conditional density propagation for visual tracking," International Journal of Computer Vision, vol.29, no.1, pp.5-28, 1998. M. Pupilli and A. Calway, "Real-time camera tracking using a particle filter," Proc. The 16th British Machine Vision Conference 2005 (BMVC2005), pp.519-528, 2005.
本発明は以上の問題に鑑みてなされたものであり、繰り返しパターンや類似した線分を有する物体に対する位置合わせの精度を向上させる為の技術を提供することを目的とする。
前記現実物体の外観を模した3次元仮想物体を構成する線分群を、当該仮想物体の形状を構成する線分群を最も低いレベルとして、それぞれにレベルが設定された複数のグループに分割し、グループ内に属するそれぞれの線分を仮想空間内で規定する為の規定データを、グループ毎に管理する管理手段と、
前記複数のグループから1つのグループを、最も低いレベルが設定されているグループから順に、最も高いレベルが設定されているグループまで、1つずつ選択する選択手段と、
前記選択手段が1つのグループを選択する毎に、当該選択されたグループに属する線分を規定するための規定データと、前記現実空間の画像と、を用いて、前記画像の視点の概略の位置姿勢を示す位置姿勢情報を更新する更新手段と、
前記更新手段により複数回更新された後の前記位置姿勢情報を、最終的な前記視点の位置姿勢を示す位置姿勢情報として出力する出力手段と
を備えることを特徴とする。
本実施形態では、現実空間の画像の視点の位置姿勢情報を、非線形最適化手法を用いて求めるためのシステムについて説明する。
第1の実施形態では、仮想物体の外形を規定するような線分を用いて撮像装置100の概略の位置姿勢情報を算出した後、より構造規定レベルが大きい線分を用いて係る位置姿勢情報の更新を行った。しかしながら、係る更新前と更新後とで位置姿勢情報に一定値以上の差が生じた場合、更新後の位置姿勢情報が局所最小解に陥ったと考えられる。そのため、最初の更新と次の更新とで位置姿勢情報に一定値以上(閾値以上)の差が生じた場合には、更新前の最初の更新による位置姿勢情報を、最終的な位置姿勢情報として採用してもよい。このようにして、局所最小解に陥いることを避けてもよい。
第1の実施形態では、構造規定レベルとしてレベル0とレベル1の2つを設けていた。換言すれば、仮想物体を構成する線分群を2つのグループに分割していた。しかしながら、構造規定レベルは2レベル以上設けてもよい。即ち、仮想物体を構成する線分群を3以上のグループに分割してもよい。例えば、構造規定レベルを0〜(n−1)まで設けた場合、即ち、仮想物体を構成する線分群をn個のグループに分割した場合、図4のステップS1050では、変数i=(n−1)であるか否かを判定する。
第1の実施形態では、変数i=1である場合、構造規定レベル0,構造規定レベル1のそれぞれに対応する線分を、基準座標系における撮像装置100の位置姿勢情報を求める為に用いていた。しかしながら、変数i=1である場合、構造規定レベル1に対応する線分のみを、基準座標系における撮像装置100の位置姿勢情報を求める為に用いるようにしても良い。
第1の実施形態では、構造規定レベル0に対応する線分を用いて更新した撮像装置100の位置姿勢情報の精度が十分に高い場合であっても、係る精度に関係なく、次の構造規定レベル1に対応する線分を用いた位置姿勢情報の更新処理を行っていた。しかし、更新後の位置姿勢情報の精度が、予め定めた基準を満たした場合には、以降の更新処理(動作)を中断し、この時点で得られている位置姿勢情報を最終的な位置姿勢情報としても良い。
第1の実施形態では、直前のフレームにおいて求めた位置姿勢情報を、現フレームにおいて複数回更新することで、現フレームにおける位置姿勢情報を求めていた。しかしながら、現フレームの概略の位置姿勢情報を、他のセンサを用いて更新してもよい。例えば、前述の3自由度姿勢センサを用いて姿勢を更新してもよいし、傾斜角センサを用いて傾斜角を更新してもよい。また、角速度センサや加速度センサなどを用いて姿勢や位置を更新してもよい。また、位置センサを用いて位置を更新してもよい。さらには、複数のセンサを併用して、概略の位置姿勢情報を更新してもよい。
第1の実施形態では、計算負荷を考慮し、ステップS1130では、最初の1回のみしかエッジ検出を行っていない。しかしながら、より精度を追求したい場合や、計算時間に余裕がある場合などには、2回目以降もエッジ検出を行ってもよい。すなわち、繰り返し計算の2回目以降も、ステップS1130においてエッジ検出を行うことによって、各線分の分割点の画像上での対応点の座標(u’,v’)を更新し、式12により補正値Δpを求めてもよい。
第1の実施形態では、非線形最適化手法に従って、撮像装置100の位置姿勢情報を算出した。本実施形態では、非線形最適化手法の代わりに、確率的手法に従って、撮像装置100の位置姿勢情報を求める。ここで、本実施形態で用いる確率的手法としては、非特許文献9、又は非特許文献10に示すパーティクルフィルタ(またはコンデンセーションとも呼ばれる)を利用する。
第2の実施形態では、構造規定レベルとしてレベル0とレベル1の2つを設けていた。換言すれば、仮想物体を構成する線分群を2つのグループに分割していた。しかしながら、構造規定レベルは2レベル以上設けてもよい。即ち、仮想物体を構成する線分群を3以上のグループに分割してもよい。例えば、構造規定レベルを0〜(n−1)まで設けた場合、即ち、仮想物体を構成する線分群をn個のグループに分割した場合、図11のステップS2070では、変数k=n−1であるか否かを判定する。
第2の実施形態では、変数k=1である場合、構造規定レベル0,構造規定レベル1のそれぞれに対応する線分を、尤度を求める為に用いていた。しかしながら、変数k=1である場合、構造規定レベル1に対応する線分のみを、尤度を求める為に用いるようにしても良い。
第2の実施形態では、ステップS2050において、パーティクルごとに画像上に線分を投影し、投影された線分の等分割点ごとにエッジ探索を行っていた。しかしながら、この処理は計算コストが高いため、あらかじめ画像全体に対してエッジ検出(例えば、Sobelフィルタ、Cannyフィルタ)を行っておき、エッジ探索の際に探索ライン上の勾配を求める処理を省略してもよい。また、あらかじめ行うエッジ検出によりエッジの方向を保持しておき、探索ライン上でかつ投影された線分に類似した方向のエッジを対応エッジとしてもよい。
第2の実施形態では、パーティクルの位置姿勢情報及び重み値から算出される位置姿勢情報の期待値、もしくは重み値が最大となるパーティクルの位置姿勢情報を撮像装置100の位置姿勢情報としていた。しかしながら、パーティクルフィルタによる結果を概略の位置姿勢情報として、第1の実施形態により撮像装置100の位置姿勢情報を算出してもよい。
[変形例2−5]
第2の実施形態では、ステップS2050において、パーティクルごとに線分の分割点が隠蔽されているかどうかを判定していた。しかしながら、例えば直前の時刻の位置姿勢情報、または直前の構造規定レベルでの位置姿勢情報に基づいて線分の分割点が隠蔽されているかどうか判定し、この隠蔽情報をステップS2050において用いてもよい。これにより、計算負荷の高い隠蔽情報の計算が省略できる。
第2の実施形態では、最初に構造規定レベルが小さい線分を用いてパーティクルを更新した後、より構造規定レベルが大きい線分を用いてパーティクルを更新して高精度な撮像装置100の位置姿勢情報の算出を行った。しかしながら、構造規定レベルが小さい線分を用いて更新されたパーティクルが表す撮像装置100の位置姿勢情報の精度が十分高いと考えられる場合には、構造規定レベルが大きい線分を用いてパーティクルを更新する処理を省略してもよい。例えば、パーティクルの重み値のうち最大の重みが二番目に大きい重み値に対して十分大きい場合や、最大の重み値のパーティクルにおける対応エッジと線分の距離の平均二乗和がほぼ0である場合には、その時点で処理を打ち切ってもよい。
第2の実施形態では、撮像装置100が撮像する画像から得られる情報を用いて撮像装置100の位置姿勢情報の算出を行った。しかしながら、他のセンサを用いることにより、6自由度ある位置姿勢情報の未知数の数を減らしてもよい。例えば、3自由度姿勢センサを用いて姿勢を既知としてもよい。また、姿勢のうち傾斜角を計測する傾斜角センサや、3自由度姿勢センサであって傾斜角が高精度に計測できる姿勢センサを用いて、2自由度ある傾斜角を既知として、画像情報からは4自由度(撮像装置の位置及び方位角)を求めるようにしてもよい。また、複数の客観カメラにより3次元位置を計測する位置センサを用いて、姿勢のみを画像情報から求めるようにしてもよい。また、これらのセンサを複数併用して未知数を減らしてもよい。
図1に示した位置姿勢計測装置1は、一般のPC(パーソナルコンピュータ)を用いて実装することができる。
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
Claims (11)
- 複数の線分で表現可能な外観を有する現実物体、が配されている現実空間の画像を取得する手段と、
前記現実物体の外観を模した3次元仮想物体を構成する線分群を、当該仮想物体の形状を構成する線分群を最も低いレベルとして、それぞれにレベルが設定された複数のグループに分割し、グループ内に属するそれぞれの線分を仮想空間内で規定する為の規定データを、グループ毎に管理する管理手段と、
前記複数のグループから1つのグループを、最も低いレベルが設定されているグループから順に、最も高いレベルが設定されているグループまで、1つずつ選択する選択手段と、
前記選択手段が1つのグループを選択する毎に、当該選択されたグループに属する線分を規定するための規定データと、前記現実空間の画像と、を用いて、前記画像の視点の概略の位置姿勢を示す位置姿勢情報を更新する更新手段と、
前記更新手段により複数回更新された後の前記位置姿勢情報を、最終的な前記視点の位置姿勢を示す位置姿勢情報として出力する出力手段と
を備えることを特徴とする画像処理装置。 - 前記更新手段は、
前記画像から検出したエッジと、前記選択手段が選択したグループに属する線分群を前記画像上に投影することで得られる線分群と、を用いて、前記画像の視点の概略の位置姿勢を示す位置姿勢情報を更新することを特徴とする請求項1に記載の画像処理装置。 - 前記更新手段は、
前記選択手段が1つのグループを選択する毎に、当該選択されたグループに属する線分を規定するための規定データと、前記現実空間の画像と、に加え、これまでに前記選択手段が選択した全てのグループに属する線分を規定するための規定データ、を用いて、前記画像の視点の概略の位置姿勢を示す位置姿勢情報を更新する
ことを特徴とする請求項1又は2に記載の画像処理装置。 - 更に、
前記更新手段により更新された位置姿勢情報の精度が、予め定めた基準を満たしている場合には、前記選択手段、前記更新手段、の動作を中断させる手段を備え、
前記出力手段は、前記更新手段により更新された位置姿勢情報の精度が、予め定めた基準を満たしている場合に、当該位置姿勢情報を出力することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 - 前記出力手段は、前記更新手段による更新前の位置姿勢情報と、前記更新手段による更新後の位置姿勢情報との差が閾値以上である場合には、前記更新前の位置姿勢情報を出力することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
- 複数の線分で表現可能な外観を有する現実物体、が配されている現実空間の画像を取得する手段と、
前記現実物体の外観を模した3次元仮想物体を構成する線分群を、当該仮想物体の形状を構成する線分群を最も低いレベルとして、それぞれにレベルが設定された複数のグループに分割し、グループ内に属するそれぞれの線分を仮想空間内で規定する為の規定データを、グループ毎に管理する管理手段と、
ランダムに変更するための位置姿勢情報を、複数種類発生させる手段と、
それぞれの位置姿勢情報を、ランダムに変更する手段と、
前記複数のグループから1つのグループを、最も低いレベルが設定されているグループから順に、最も高いレベルが設定されているグループまで、1つずつ選択する選択手段と、
前記選択手段が1つのグループを選択する毎に、
前記選択されたグループに属する線分を規定するための規定データと、前記ランダムに変更された位置姿勢情報と、に基づいて、前記選択されたグループに属する線分群を前記画像上に投影する処理を、それぞれの位置姿勢情報について行う手段と、
前記画像から検出されるエッジと、それぞれの投影済みの線分と、の対応関係に基づいて、それぞれの位置姿勢情報に対する重み値を計算する手段と、
それぞれの位置姿勢情報と、それぞれの位置姿勢情報に対する重み値と、に基づいて、前記画像の視点の位置姿勢を求める計算手段と
を備えることを特徴とする画像処理装置。 - 前記計算手段は、それぞれの位置姿勢情報に、対応する重み値でもって重み付けした結果の総和値を、前記画像の視点の位置姿勢として求めることを特徴とする請求項6に記載の画像処理装置。
- 複数の線分で表現可能な外観を有する現実物体、が配されている現実空間の画像を取得する工程と、
前記現実物体の外観を模した3次元仮想物体を構成する線分群を、当該仮想物体の形状を構成する線分群を最も低いレベルとして、それぞれにレベルが設定された複数のグループに分割し、グループ内に属するそれぞれの線分を仮想空間内で規定する為の規定データを、グループ毎に管理する管理工程と、
前記複数のグループから1つのグループを、最も低いレベルが設定されているグループから順に、最も高いレベルが設定されているグループまで、1つずつ選択する選択工程と、
前記選択工程で1つのグループを選択する毎に、当該選択されたグループに属する線分を規定するための規定データと、前記現実空間の画像と、を用いて、前記画像の視点の概略の位置姿勢を示す位置姿勢情報を更新する更新工程と、
前記更新工程で複数回更新された後の前記位置姿勢情報を、最終的な前記視点の位置姿勢を示す位置姿勢情報として出力する出力工程と
を備えることを特徴とする画像処理方法。 - 複数の線分で表現可能な外観を有する現実物体、が配されている現実空間の画像を取得する工程と、
前記現実物体の外観を模した3次元仮想物体を構成する線分群を、当該仮想物体の形状を構成する線分群を最も低いレベルとして、それぞれにレベルが設定された複数のグループに分割し、グループ内に属するそれぞれの線分を仮想空間内で規定する為の規定データを、グループ毎に管理する管理工程と、
ランダムに変更するための位置姿勢情報を、複数種類発生させる工程と、
それぞれの位置姿勢情報を、ランダムに変更する工程と、
前記複数のグループから1つのグループを、最も低いレベルが設定されているグループから順に、最も高いレベルが設定されているグループまで、1つずつ選択する選択工程と、
前記選択工程で1つのグループを選択する毎に、
前記選択されたグループに属する線分を規定するための規定データと、前記ランダムに変更された位置姿勢情報と、に基づいて、前記選択されたグループに属する線分群を前記画像上に投影する処理を、それぞれの位置姿勢情報について行う工程と、
前記画像から検出されるエッジと、それぞれの投影済みの線分と、の対応関係に基づいて、それぞれの位置姿勢情報に対する重み値を計算する工程と、
それぞれの位置姿勢情報と、それぞれの位置姿勢情報に対する重み値と、に基づいて、前記画像の視点の位置姿勢を求める計算工程と
を備えることを特徴とする画像処理方法。 - コンピュータを、請求項1乃至7の何れか1項に記載の各手段として機能させるためのコンピュータプログラム。
- 請求項10に記載のコンピュータプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008101814A JP5111210B2 (ja) | 2008-04-09 | 2008-04-09 | 画像処理装置、画像処理方法 |
US12/418,082 US8223146B2 (en) | 2008-04-09 | 2009-04-03 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008101814A JP5111210B2 (ja) | 2008-04-09 | 2008-04-09 | 画像処理装置、画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009252112A JP2009252112A (ja) | 2009-10-29 |
JP5111210B2 true JP5111210B2 (ja) | 2013-01-09 |
Family
ID=41200754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008101814A Active JP5111210B2 (ja) | 2008-04-09 | 2008-04-09 | 画像処理装置、画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8223146B2 (ja) |
JP (1) | JP5111210B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020160777A (ja) * | 2019-03-26 | 2020-10-01 | 日立建機株式会社 | 較正作業支援システム |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7916935B2 (en) * | 2006-09-19 | 2011-03-29 | Wisconsin Alumni Research Foundation | Systems and methods for automatically determining 3-dimensional object information and for controlling a process based on automatically-determined 3-dimensional object information |
JP2010134649A (ja) | 2008-12-03 | 2010-06-17 | Canon Inc | 情報処理装置、その処理方法及びプログラム |
JP5388932B2 (ja) * | 2009-04-30 | 2014-01-15 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
JP5290864B2 (ja) * | 2009-05-18 | 2013-09-18 | キヤノン株式会社 | 位置姿勢推定装置及び方法 |
JP5567908B2 (ja) * | 2009-06-24 | 2014-08-06 | キヤノン株式会社 | 3次元計測装置、その計測方法及びプログラム |
JP5393318B2 (ja) * | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP2011095797A (ja) * | 2009-10-27 | 2011-05-12 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
US8427536B2 (en) * | 2009-11-19 | 2013-04-23 | Qualcomm Incorporated | Orientation determination of a mobile station using side and top view images |
JP5746477B2 (ja) | 2010-02-26 | 2015-07-08 | キヤノン株式会社 | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム |
US8416263B2 (en) | 2010-03-08 | 2013-04-09 | Empire Technology Development, Llc | Alignment of objects in augmented reality |
JP5759110B2 (ja) * | 2010-04-27 | 2015-08-05 | 泉陽興業株式会社 | 観覧車 |
JP5612916B2 (ja) | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム |
JP5624394B2 (ja) | 2010-07-16 | 2014-11-12 | キヤノン株式会社 | 位置姿勢計測装置、その計測処理方法及びプログラム |
JP5496008B2 (ja) | 2010-08-06 | 2014-05-21 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
JP5671281B2 (ja) * | 2010-08-20 | 2015-02-18 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム |
TWI459306B (zh) * | 2010-09-10 | 2014-11-01 | Hon Hai Prec Ind Co Ltd | 具有圖像重現功能的電子裝置及方法 |
JP5158223B2 (ja) * | 2011-04-06 | 2013-03-06 | カシオ計算機株式会社 | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム |
JP5732988B2 (ja) * | 2011-04-08 | 2015-06-10 | ソニー株式会社 | 画像処理装置、表示制御方法及びプログラム |
US8884949B1 (en) | 2011-06-06 | 2014-11-11 | Thibault Lambert | Method and system for real time rendering of objects from a low resolution depth camera |
US9600933B2 (en) | 2011-07-01 | 2017-03-21 | Intel Corporation | Mobile augmented reality system |
US9606992B2 (en) * | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
JP2013130923A (ja) * | 2011-12-20 | 2013-07-04 | Canon Inc | 画像処理装置、サーバ装置、情報処理方法及びプログラム |
US9898682B1 (en) | 2012-01-22 | 2018-02-20 | Sr2 Group, Llc | System and method for tracking coherently structured feature dynamically defined within migratory medium |
JP6004809B2 (ja) * | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
JP5538483B2 (ja) | 2012-06-29 | 2014-07-02 | 株式会社ソニー・コンピュータエンタテインメント | 映像処理装置、映像処理方法、および映像処理システム |
US9001123B1 (en) * | 2012-07-17 | 2015-04-07 | Lockheed Martin Corporation | Forming a polygon mesh without shifting vertex positions |
JP6021568B2 (ja) * | 2012-10-02 | 2016-11-09 | 任天堂株式会社 | 画像処理用プログラム、画像処理装置、画像処理システム、および画像処理方法 |
JP6021592B2 (ja) * | 2012-11-06 | 2016-11-09 | 任天堂株式会社 | 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法 |
WO2014119097A1 (ja) | 2013-02-01 | 2014-08-07 | ソニー株式会社 | 情報処理装置、端末装置、情報処理方法及びプログラム |
BR112016010089B1 (pt) * | 2013-11-13 | 2021-06-08 | Nissan Motor Co. Ltd. | dispositivo de estimação de posição de corpo em movimento e método de estimação de posição de corpo em movimento |
JP6253368B2 (ja) | 2013-11-25 | 2017-12-27 | キヤノン株式会社 | 三次元形状計測装置およびその制御方法 |
US10664705B2 (en) | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
US10326972B2 (en) * | 2014-12-31 | 2019-06-18 | Samsung Electronics Co., Ltd. | Three-dimensional image generation method and apparatus |
US9690374B2 (en) * | 2015-04-27 | 2017-06-27 | Google Inc. | Virtual/augmented reality transition system and method |
JP6716996B2 (ja) * | 2016-03-29 | 2020-07-01 | 富士通株式会社 | 画像処理プログラム、画像処理装置、及び画像処理方法 |
JP6819333B2 (ja) * | 2017-02-07 | 2021-01-27 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
JP2018142109A (ja) * | 2017-02-27 | 2018-09-13 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
WO2020242047A1 (en) * | 2019-05-30 | 2020-12-03 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring virtual object data in augmented reality |
CN110599569B (zh) * | 2019-09-16 | 2023-09-15 | 上海市刑事科学技术研究院 | 一种建筑物内部二维平面图的生成方法、存储设备及终端 |
JP2023048014A (ja) * | 2021-09-27 | 2023-04-06 | 株式会社Jvcケンウッド | 表示装置、表示装置の制御方法およびプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7411594B2 (en) | 2002-01-15 | 2008-08-12 | Canon Kabushiki Kaisha | Information processing apparatus and method |
JP3796449B2 (ja) | 2002-01-31 | 2006-07-12 | キヤノン株式会社 | 位置姿勢決定方法および装置並びにコンピュータプログラム |
EP1349114A3 (en) | 2002-03-19 | 2011-06-15 | Canon Kabushiki Kaisha | Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus |
JP4136859B2 (ja) | 2003-01-10 | 2008-08-20 | キヤノン株式会社 | 位置姿勢計測方法 |
JP2005149409A (ja) | 2003-11-19 | 2005-06-09 | Canon Inc | 画像再生方法及び装置 |
JP4599184B2 (ja) | 2005-02-02 | 2010-12-15 | キヤノン株式会社 | 指標配置計測方法、指標配置計測装置 |
JP4914039B2 (ja) | 2005-07-27 | 2012-04-11 | キヤノン株式会社 | 情報処理方法および装置 |
JP5063023B2 (ja) | 2006-03-31 | 2012-10-31 | キヤノン株式会社 | 位置姿勢補正装置、位置姿勢補正方法 |
JP5109294B2 (ja) * | 2006-06-19 | 2012-12-26 | 三菱電機株式会社 | 3次元位置補正装置 |
JP4789745B2 (ja) * | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
-
2008
- 2008-04-09 JP JP2008101814A patent/JP5111210B2/ja active Active
-
2009
- 2009-04-03 US US12/418,082 patent/US8223146B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020160777A (ja) * | 2019-03-26 | 2020-10-01 | 日立建機株式会社 | 較正作業支援システム |
KR20210034070A (ko) * | 2019-03-26 | 2021-03-29 | 히다찌 겐끼 가부시키가이샤 | 교정 작업 지원 시스템 |
JP7153594B2 (ja) | 2019-03-26 | 2022-10-14 | 日立建機株式会社 | 較正作業支援システム |
KR102509346B1 (ko) | 2019-03-26 | 2023-03-14 | 히다찌 겐끼 가부시키가이샤 | 교정 작업 지원 시스템 |
US11891783B2 (en) | 2019-03-26 | 2024-02-06 | Hitachi Construction Machinery Co., Ltd. | Calibration work support system |
Also Published As
Publication number | Publication date |
---|---|
US8223146B2 (en) | 2012-07-17 |
JP2009252112A (ja) | 2009-10-29 |
US20090262113A1 (en) | 2009-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5111210B2 (ja) | 画像処理装置、画像処理方法 | |
US10650546B2 (en) | Method of providing a descriptor for at least one feature of an image and method of matching features | |
JP4789745B2 (ja) | 画像処理装置および方法 | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
JP4898464B2 (ja) | 情報処理装置および方法 | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
JP5290864B2 (ja) | 位置姿勢推定装置及び方法 | |
US9053547B2 (en) | Three-dimensional point cloud position data processing device, three-dimensional point cloud position data processing system, and three-dimensional point cloud position data processing method and program | |
US8995710B2 (en) | Information processing apparatus, processing method thereof, and computer-readable storage medium | |
US7911503B2 (en) | Information processing apparatus and information processing method | |
JP7427188B2 (ja) | 3dポーズ取得方法及び装置 | |
JP5290865B2 (ja) | 位置姿勢推定方法および装置 | |
JP6762913B2 (ja) | 情報処理装置、情報処理方法 | |
JP5693691B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
JP2018173882A (ja) | 情報処理装置、方法、及びプログラム | |
van Liere et al. | An Experimental Comparison of Three Optical Trackers for Model Based Pose Determination in Virtual Reality. | |
Ahmed | Real-Time Interactive 3D Reconstruction of Indoor Environments With High Accuracy | |
JP2021005399A (ja) | 情報処理装置、情報処理方法 | |
Gava et al. | A Unifying Structure from Motion Framework for Central Projection Cameras | |
Chekhov | Towards Robust Data Association in Real-time Visual SLAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120907 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121009 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5111210 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |