JP7000555B2 - 拡張現実の表示方法、姿勢情報の決定方法及び装置 - Google Patents
拡張現実の表示方法、姿勢情報の決定方法及び装置 Download PDFInfo
- Publication number
- JP7000555B2 JP7000555B2 JP2020503262A JP2020503262A JP7000555B2 JP 7000555 B2 JP7000555 B2 JP 7000555B2 JP 2020503262 A JP2020503262 A JP 2020503262A JP 2020503262 A JP2020503262 A JP 2020503262A JP 7000555 B2 JP7000555 B2 JP 7000555B2
- Authority
- JP
- Japan
- Prior art keywords
- key point
- image
- coordinate information
- information
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 126
- 230000003190 augmentative effect Effects 0.000 title claims description 8
- 230000006870 function Effects 0.000 claims description 70
- 230000015654 memory Effects 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 27
- 238000006073 displacement reaction Methods 0.000 claims description 24
- 238000003860 storage Methods 0.000 claims description 14
- 230000033001 locomotion Effects 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 6
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 8
- 238000007726 management method Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000013439 planning Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000005457 optimization Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 241000032989 Ipomoea lacunosa Species 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000011068 loading method Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000012384 transportation and delivery Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 235000021443 coca cola Nutrition 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 239000004283 Sodium sorbate Substances 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000011031 large-scale manufacturing process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012857 repacking Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000005945 translocation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本出願は、2017年07月31日に中国特許局に提出された出願番号が201710643376.8であり、発明名称が「拡張現実の表示方法、姿勢情報の決定方法及び装置」の中国特許出願の優先権を要求し、その全ての内容は引用によって本出願に援用される。
本出願の実施例は、自己位置推定と地図作成の同時実行分野に関し、特に、画像収集装置の情報決定方法及び関連装置に関する。
画像収集装置が、対象物の第1画像を取得することと、
上記画像収集装置が上記対象物に対応する第1の2Dキーポイントの座標情報を第1画像から抽出することと、
上記画像収集装置が上記対象物の第2画像を取得することと、
上記画像収集装置が上記第1の2Dキーポイントの座標情報に基づいて上記第2画像の第2の2Dキーポイントの座標情報を取得し、上記第1の2Dキーポイントと上記第2の2Dキーポイントが上記対象物における同一のキーポイントであることと、
上記画像収集装置が上記対象物に対応する3Dキーポイントの座標情報を取得し、上記3Dキーポイントが三角化処理されたキーポイントであることと、
上記画像収集装置が上記第1の2Dキーポイントの座標情報、上記第2の2Dキーポイントの座標情報及び上記3Dキーポイントの座標情報に基づいて、上記第2画像のカメラ姿勢情報を決定し、上記カメラ姿勢情報が上記第2画像における上記対象物の位置を決定するためのものであることと、
画像収集装置が付加画像情報を取得することと、
画像収集装置が上記第2画像、上記第2画像のカメラ姿勢情報及び上記付加画像情報に基づいて、拡張画像を生成することとを含む。
上記画像収集装置が、対象物の第1画像を取得することと、
上記画像収集装置が上記対象物に対応する第1の2Dキーポイントの座標情報を上記第1画像から抽出することと、
上記画像収集装置が上記対象物の第2画像を取得することと、
上記画像収集装置が上記第1の2Dキーポイントの座標情報に基づいて上記第2画像の第2の2Dキーポイントの座標情報を取得し、上記第1の2Dキーポイントと上記第2の2Dキーポイントが上記対象物における同一のキーポイントであることと、
上記画像収集装置が上記対象物に対応する3Dキーポイントの座標情報を取得し、上記3Dキーポイントが三角化処理されたキーポイントであることと、
上記画像収集装置が上記第1の2Dキーポイントの座標情報、上記第2の2Dキーポイントの座標情報及び上記3Dキーポイントの座標情報に基づいて、上記第2画像のカメラ姿勢情報を決定し、上記カメラ姿勢情報が上記第2画像における上記対象物の位置を決定するためのものであることとを含む。
上記取得モジュールは、対象物の第1画像を取得するように構成され、
上記取得モジュールは、上記第1の2Dキーポイントの座標情報に基づいて第2画像の第2の2Dキーポイントの座標情報を取得するように更に構成され、上記第1の2Dキーポイントと上記第2の2Dキーポイントは、異なる画像に位置する同一のキーポイントであり、上記第1画像が、上記第2画像の前のいずれか1フレームの画像であり、
上記取得モジュールは、上記対象物の第2画像を取得するように更に構成され、
上記決定モジュールは、上記取得モジュールにより取得された上記第1の2Dキーポイントの座標情報、上記第2の2Dキーポイントの座標情報及び上記3Dキーポイントの座標情報に基づいて、上記第2画像のカメラ姿勢情報を決定するように構成され、上記カメラ姿勢情報が上記第2画像における対象物の位置を決定するためのものである。
上記メモリは、プログラムを記憶するように構成され、
上記プロセッサは、上記メモリにおけるプログラムを実行するように構成され、具体的には、
対象物の第1画像を取得することと、
上記対象物に対応する第1の2Dキーポイントの座標情報を上記第1画像から抽出することと、
上記対象物の第2画像を取得することと、
上記第1の2Dキーポイントの座標情報に基づいて上記第2画像の第2の2Dキーポイントの座標情報を取得し、上記第1の2Dキーポイントと上記第2の2Dキーポイントが上記対象物における同一のキーポイントであることと、
上記対象物に対応する3Dキーポイントの座標情報を取得し、上記3Dキーポイントが三角化処理されたキーポイントであることと、
上記第1の2Dキーポイントの座標情報、上記第2の2Dキーポイントの座標情報及び上記3Dキーポイントの座標情報に基づいて、上記第2画像のカメラ姿勢情報を決定し、上記カメラ姿勢情報が上記第2画像における上記対象物の位置を決定するためのものであることと、
上記バスシステムは、上記メモリと上記プロセッサを接続し、上記メモリと上記プロセッサが通信を行うようにするためのものである。
AR表示方法で、歩行者が付いて行きやすいナビゲーションアプリケーションを見せることができる。アプリケーションにおいて矢印及び経路を現実の環境に直接的に付加した結果、非常に直観的なナビゲーション経路を実現させる。これと同時に、AR表示方法は、地元のランドマークを識別して、これらに関連する有用な情報を提供することができる。例えば、区域の名称及び二つの建築の間の相対的距離を提供することができ、ここで限定されない。
言語翻訳は、AR応用において将来性が最も高い分野の一つである。本出願の実施例が提供するAR表示方法は、インテリジェント端末に適用することができる。該インテリジェント端末を用いると、テキストを別の言語に同時翻訳することができる。アプリケーションを起動してから、ユーザが機器を外字に向ければよい。画像収集装置は該情報をユーザの母国語に翻訳して表示する。また、翻訳文のフォントとして同一のものが用いられ、同一の壁に示され、即ち原テキストと同じである。
インテリジェント端末がほぼパーソナルコンピュータ(personal computer:PC)の代替となりうることが多いが、定規又は三角定規等のような、生活中に必要な工具の代替となりえない。AR技術を用いると、インテリジェント端末は、計測工具とも称される。例えば、本出願の実施例が提供するAR表示方式を用いると、仮想的な定規と現実を整合することができる。インテリジェント端末自体は、仮想的な計測工具のハードウェア条件としてのカメラ、プロセッサ及び運動センサ等の機能以外に、AR表示技術を利用して、現実において測定しようとする物体に浮遊するポイントを表示することで、データを得ることができる。
本出願の実施例が提供するAR表示技術を用いてアプリケーションを設計することもできる。消費者はインテリジェント端末で、選択したデジタルの家具を選択して、クリックすることによって、自宅のリビングルームに「配置」することができ、ある位置に配置されると、家具の寸法、スタイル、色が合うかどうかを検証することを容易にする。該アプリケーションは、ユーザによる各部品の寸法及び色の調整を許容する。
ARがダンスティーチングに用いられるとき、生徒と教師は、空間的及び時間的な制限を破ることができる。本出願の実施例で説明したAR表示技術を用いると、仮想的な「ステップ」を現実中に巧妙に適用することもできる。生徒は、仮想的な足跡に基づいてステップを習得する。アプリケーションは、生徒の需要に応じてスピードを遅くすることもでき、ダンスのパートナーと一緒に学習することもできる。
続いて、物流産業を例として、AR表示技術がどのような影響を与えるかについて具体的に説明する。ARの物流産業への適用は、相対的初期段階であるが、ARは非常に有利である。例えば、ARによれば、物流業者は随時随所に所望の情報を速やかに取得することができる。これは、配送及び積み込み等の作業の正確な計画及び細やかな動作の最適化にとって極めて重要である。また、より高質なカスタマーサービスの提供のために確実な基盤を築くこともできる。我々は、ARの物流産業への適用について幾つかの適用例を想定することができる。これらの適用例は、倉庫運営、運搬の最適化、ラストワンマイルの配送及び強化した付加的なサービスという4種類に分けられる。
画像収集装置が第2画像における第2の2Dキーポイントの数が閾値に達したかどうかを判定することと、
第2の2Dキーポイントの数が閾値に達した場合、画像収集装置が第1の2Dキーポイントの座標情報に基づいて第2画像の第2の2Dキーポイントの座標情報を取得するステップを開始することとを更に含む。
第1画像から第1の2Dキーポイントを決定することと、
第1画像から第1の2Dキーポイントに対応する第2の2Dキーポイントを決定することと、
第1の2Dキーポイントの座標情報と変位情報に基づいて、第2の2Dキーポイントの座標情報を決定し、変位情報が第1の2Dキーポイントから第2の2Dキーポイントまでの移動距離であることとを更に含むことができる。
第2の2Dキーポイントの数が閾値に達していない場合、画像収集装置が第1画像からn個のキーポイントを取得し、第2の2Dキーポイントとn個のキーポイントの数の合計を閾値に達すようにし、ここで、nが正整数であり、n個のキーポイントが第1画像に対応するターゲット領域から取得されたものであり、第1画像が複数の均等に分割される領域を含み、ターゲット領域におけるキーポイントの数がキーポイントの所定の閾値未満であることと、
画像収集装置が第1の2Dキーポイントの座標情報及びn個のキーポイントの座標情報に基づいて、第2画像におけるn個のキーポイントの座標情報及び第2の2Dキーポイントの座標情報を取得することとを更に含むことができる。
第1画像から第1の2Dキーポイント及びn個のキーポイントを決定することと、
第1画像から第1の2Dキーポイント及びn個のキーポイントに対応する第2の2Dキーポイントを決定することと、
第1の2Dキーポイントの座標情報、n個のキーポイントの座標情報及び変位情報に基づいて、第2画像におけるn個のキーポイントの座標情報及び第2の2Dキーポイントの座標情報を決定し、変位情報が第1の2Dキーポイントから第2の2Dキーポイントまでの移動距離と、n個のキーポイントから第2の2Dキーポイントまでの移動距離とを含むこととを含む。
画像収集装置が第1の2Dキーポイントの座標情報、第2の2Dキーポイントの座標情報、第1画像のカメラ姿勢情報及び第2画像のカメラ姿勢情報に対して三角化処理を行い、選択待ちの3Dキーポイント及び選択待ちの3Dキーポイントの座標情報を得ることと、
画像収集装置が選択待ちの3Dキーポイントに基づいて、観測角度を決定し、観測角度が第1画像の中心点から選択待ちの3Dキーポイントまでの連結線と、第2画像の中心点から選択待ちの3Dキーポイントまでの連結線とがなす角度であることと、
観測角度が所定の角度を超えた場合、画像収集装置が選択待ちの3Dキーポイントの座標情報をターゲット3Dキーポイントの座標情報として決定することとを更に含むことができる。
画像収集装置が追跡レコードを生成し、追跡レコードが複数の画像における2Dキーポイントの座標情報を記録するためのものであり、追跡レコードにおける最初の画像が第1画像であり、追跡レコードにおける最後の画像が第2画像であり、第1画像と第2画像との間に少なくとも1つの画像が含まれることを更に含むことができる。
追跡レコードに基づいて対象物の第3の2Dキーポイントの座標情報及び対象物の第4の2Dキーポイントの座標情報を取得し、第3の2Dキーポイントは第3画像に属し、第4の2Dキーポイントは第4画像に属し、第3画像及び第4画像がいずれも第1画像と第2画像との間に位置することと、
第1の2Dキーポイントの座標情報及び第3の2Dキーポイントの座標情報に対して三角化処理を行い、第1の3Dキーポイントの座標情報を得ることと、
第3の2Dキーポイントの座標情報及び第4の2Dキーポイントの座標情報に対して三角化処理を行い、第2の3Dキーポイントの座標情報を得ることと、
第1の3Dキーポイントの座標情報に基づいて第1観測角度を決定し、第2の3Dキーポイントの座標情報に基づいて第2観測角度を決定し、第1観測角度が第1画像の中心点から第1の3Dキーポイントまでの連結線と、第3画像の中心点から第1の3Dキーポイントまでの連結線とがなす角度であり、第2観測角度が第2画像の中心点から第2の3Dキーポイントまでの連結線と、第3画像の中心点から第2の3Dキーポイントまでの連結線とがなす角度であることと、
第1観測角度が第2観測角度を超えた場合、第1の3Dキーポイントの座標情報を対象物の3Dキーポイントの座標情報として決定することと、
第2観測角度が第1観測角度を超えた場合、第2の3Dキーポイントの座標情報を対象物の3Dキーポイントの座標情報として決定することとを含むことができる。
画像収集装置が3Dキーポイントの座標情報に基づいて3Dから2Dへの投影誤差を取得することと、
画像収集装置が第1の2Dキーポイントの座標情報及び第2の2Dキーポイントの座標情報に基づいて、2Dから2Dへのエピポーラ距離を取得することと、
画像収集装置が3Dから2Dへの投影誤差及び2Dから2Dへのエピポーラ距離に基づいて目的関数を算出し、目的関数を最小化して解を求め、第2画像のカメラ姿勢情報を得ることとを含むことができる。
取得モジュール301は、対象物の第1画像を取得するように構成され、
抽出モジュール302は、上記取得モジュール301が取得した上記第1画像から上記対象物に対応する第1の2Dキーポイントの座標情報を抽出するように構成され、
上記取得モジュール301は、上記対象物の第2画像を取得するように更に構成され、
上記取得モジュール301は、上記抽出モジュール302が抽出した上記第1の2Dキーポイントの座標情報に基づいて上記第2画像の第2の2Dキーポイントの座標情報を取得するように更に構成され、上記第1の2Dキーポイントと上記第2の2Dキーポイントは上記対象物における同一のキーポイントであり、
上記取得モジュール301は、上記対象物に対応する3Dキーポイントの座標情報を取得するように更に構成され、上記3Dキーポイントは三角化処理されたキーポイントであり、
決定モジュール303は、上記抽出モジュール302が抽出した上記第1の2Dキーポイントの座標情報、上記取得モジュール301が取得した上記第2の2Dキーポイントの座標情報及び上記3Dキーポイントの座標情報に基づいて、上記第2画像のカメラ姿勢情報を決定するように構成され、上記カメラ姿勢情報は、上記第2画像における対象物の位置を決定するためのものである。
上記取得モジュール301が上記第1の2Dキーポイントの座標情報に基づいて第2画像の第2の2Dキーポイントの座標情報を取得する前に、上記第2画像における上記第2の2Dキーポイントの数が閾値に達したかどうかを判定するように構成される判定モジュール304と、
上記判定モジュール304が第2の2Dキーポイントの数が閾値に達したと判定する場合、上記第1の2Dキーポイントの座標情報に基づいて第2画像の第2の2Dキーポイントの座標情報を取得するステップを開始するように構成されるトリガモジュール305とを更に備える。
上記決定モジュール303は具体的には、上記第1画像から上記第1の2Dキーポイントを決定し、
上記第1画像から上記第1の2Dキーポイントに対応する第2の2Dキーポイントを決定し、
根据上記第1の2Dキーポイントの座標情報と変位情報に基づいて、上記第2の2Dキーポイントの座標情報を決定するように構成され、上記変位情報が第1の2Dキーポイントから第2の2Dキーポイントまでの移動距離である。
上記第2の2Dキーポイントの数が閾値に達していない場合、上記画像収集装置301が第1画像からn個のキーポイントを取得し、上記第2の2Dキーポイントとn個のキーポイントの数の合計を上記閾値に達すようにし、ここで、nが正整数であり、上記n個のキーポイントが第1画像に対応するターゲット領域から取得されたものであり、上記第1画像が複数の均等に分割される領域を含み、ターゲット領域におけるキーポイントの数がキーポイントの所定の閾値未満であり、
上記第1の2Dキーポイントの座標情報及び上記n個のキーポイントの座標情報に基づいて、上記第2画像における上記n個のキーポイントの座標情報及び上記第2の2Dキーポイントの座標情報を取得する。
上記決定モジュール303は具体的には、上記第1画像から上記第1の2Dキーポイント及び上記n個のキーポイントを決定し、
上記第1画像から上記第1の2Dキーポイント及び和上記n個のキーポイントに対応する第2の2Dキーポイントを決定し、
上記第1の2Dキーポイントの座標情報、上記n個のキーポイントの座標情報及び変位情報に基づいて、上記第2画像における上記n個のキーポイントの座標情報及び上記第2の2Dキーポイントの座標情報を決定するように構成され、上記変位情報は上記第1の2Dキーポイントから上記第2の2Dキーポイントまでの移動距離、及び上記n個のキーポイントから上記第2の2Dキーポイントまでの移動距離を含む。
上記画像収集装置302は、上記第2画像のカメラ姿勢情報を決定した後、上記第1の2Dキーポイントの座標情報、上記第2の2Dキーポイントの座標情報、上記第1画像のカメラ姿勢情報及び上記第2画像のカメラ姿勢情報に対して三角化処理を行い、選択待ちの3Dキーポイント及び上記選択待ちの3Dキーポイントの座標情報を得て、
上記選択待ちの3Dキーポイントに基づいて、観測角度を決定し、上記観測角度が上記第1画像の中心点から選択待ちの3Dキーポイントまでの連結線と、上記第2画像の中心点から上記選択待ちの3Dキーポイントまでの連結線とがなす角度であり、
上記観測角度が所定の角度を超えた場合、上記選択待ちの3Dキーポイントの座標情報をターゲット3Dキーポイントの座標情報として決定するように構成される。
上記画像収集装置301が上記第1の2Dキーポイントの座標情報に基づいて第2画像の第2の2Dキーポイントの座標情報を取得した後、追跡レコードを生成し、上記追跡レコードが複数の画像における2Dキーポイントの座標情報を記録するためのものであり、上記追跡レコードにおける最初の画像が上記第1画像であり、上記追跡レコードにおける最後の画像が上記第2画像であり、上記第1画像と上記第2画像との間に少なくとも1つの画像が含まれるように構成される生成モジュール306を更に備える。
上記取得モジュール301は具体的には、上記追跡レコードに基づいて上記対象物の第3の2Dキーポイントの座標情報及び上記対象物の第4の2Dキーポイントの座標情報を取得し、上記第3の2Dキーポイントは第3画像に属し、上記第4の2Dキーポイントは第4画像に属し、上記第3画像及び上記第4画像がいずれも上記第1画像と上記第2画像との間に位置し、
上記第1の2Dキーポイントの座標情報及び上記第3の2Dキーポイントの座標情報に対して三角化処理を行い、第1の3Dキーポイントの座標情報を得て、
上記第3の2Dキーポイントの座標情報及び上記第4の2Dキーポイントの座標情報に対して三角化処理を行い、第2の3Dキーポイントの座標情報を得て、
上記第1の3Dキーポイントの座標情報に基づいて第1観測角度を決定し、上記第2の3Dキーポイントの座標情報に基づいて第2観測角度を決定し、上記第1観測角度が上記第1画像の中心点から上記第1の3Dキーポイントまでの連結線と、上記第3画像の中心点から上記第1の3Dキーポイントまでの連結線とがなす角度であり、上記第2観測角度が上記第2画像の中心点から上記第2の3Dキーポイントまでの連結線と、上記第3画像の中心点から上記第2の3Dキーポイントまでの連結線とがなす角度であり、
上記第1観測角度が上記第2観測角度を超えた場合、上記第1の3Dキーポイントの座標情報を上記対象物の3Dキーポイントの座標情報として決定し、
上記第2観測角度が上記第1観測角度を超えた場合、上記第2の3Dキーポイントの座標情報を上記対象物の3Dキーポイントの座標情報として決定するように構成される。
上記決定モジュール303は具体的には、上記3Dキーポイントの座標情報に基づいて3Dから2Dへの投影誤差を取得し、
上記第1の2Dキーポイントの座標情報及び上記第2の2Dキーポイントの座標情報に基づいて、2Dから2Dへのエピポーラ距離を取得し、
上記3Dから2Dへの投影誤差及び上記2Dから2Dへのエピポーラ距離に基づいて目的関数を算出し、上記目的関数を最小化して解を求め、上記第2画像のカメラ姿勢情報を得るように構成される。
上記決定モジュール303は具体的には、下記公式で3Dから2Dへの投影誤差を算出するように構成され、
上記決定モジュール303は具体的には、下記公式で2Dから2Dへのエピポーラ距離を算出するように構成され、
上記第1画像から上記対象物に対応する第1の2Dキーポイントの座標情報を抽出し、
上記対象物の第2画像を取得し、
上記第1の2Dキーポイントの座標情報に基づいて上記第2画像の第2の2Dキーポイントの座標情報を取得し、上記第1の2Dキーポイントと上記第2の2Dキーポイントが上記対象物における同一のキーポイントであり、
上記対象物に対応する3Dキーポイントの座標情報を取得し、上記3Dキーポイントが三角化処理されたキーポイントであり、
上記第1の2Dキーポイントの座標情報、上記第2の2Dキーポイントの座標情報及び上記3Dキーポイントの座標情報に基づいて、上記第2画像のカメラ姿勢情報を決定し、上記カメラ姿勢情報が上記第2画像における上記対象物の位置を決定するためのものである。
上記第2の2Dキーポイントの数が閾値に達した場合、上記第1の2Dキーポイントの座標情報に基づいて第2画像の第2の2Dキーポイントの座標情報を取得するステップを開始する。
上記第1画像から上記第1の2Dキーポイントに対応する第2の2Dキーポイントを決定し、
上記第1の2Dキーポイントの座標情報と変位情報に基づいて、上記第2の2Dキーポイントの座標情報を決定し、上記変位情報が上記第1の2Dキーポイントから上記第2の2Dキーポイントまでの移動距離である。
上記第1の2Dキーポイントの座標情報及び上記n個のキーポイントの座標情報に基づいて、上記第2画像における上記n個のキーポイントの座標情報及び上記第2の2Dキーポイントの座標情報を取得する。
上記第1画像から上記第1の2Dキーポイント及び和上記n個のキーポイントに対応する第2の2Dキーポイントを決定し、
上記第1の2Dキーポイントの座標情報、上記n個のキーポイントの座標情報及び変位情報に基づいて、上記第2画像における上記n個のキーポイントの座標情報及び上記第2の2Dキーポイントの座標情報を決定し、上記変位情報は上記第1の2Dキーポイントから上記第2の2Dキーポイントまでの移動距離、及び上記n個のキーポイントから上記第2の2Dキーポイントまでの移動距離を含む。
上記選択待ちの3Dキーポイントに基づいて、観測角度を決定し、上記観測角度が上記第1画像の中心点から選択待ちの3Dキーポイントまでの連結線と、上記第2画像の中心点から上記選択待ちの3Dキーポイントまでの連結線とがなす角度であり、
上記観測角度が所定の角度を超えた場合、上記選択待ちの3Dキーポイントの座標情報をターゲット3Dキーポイントの座標情報として決定する。
上記第1の2Dキーポイントの座標情報及び上記第3の2Dキーポイントの座標情報に対して三角化処理を行い、第1の3Dキーポイントの座標情報を得て、
上記第3の2Dキーポイントの座標情報及び上記第4の2Dキーポイントの座標情報に対して三角化処理を行い、第2の3Dキーポイントの座標情報を得て、
上記第1の3Dキーポイントの座標情報に基づいて第1観測角度を決定し、上記第2の3Dキーポイントの座標情報に基づいて第2観測角度を決定し、上記第1観測角度が上記第1画像の中心点から上記第1の3Dキーポイントまでの連結線と、上記第3画像の中心点から上記第1の3Dキーポイントまでの連結線とがなす角度であり、上記第2観測角度が上記第2画像の中心点から上記第2の3Dキーポイントまでの連結線と、上記第3画像の中心点から上記第2の3Dキーポイントまでの連結線とがなす角度であり、
上記第1観測角度が上記第2観測角度を超えた場合、上記第1の3Dキーポイントの座標情報を上記対象物の3Dキーポイントの座標情報として決定し、
上記第2観測角度が上記第1観測角度を超えた場合、上記第2の3Dキーポイントの座標情報を上記対象物の3Dキーポイントの座標情報として決定する。
上記第1の2Dキーポイントの座標情報及び上記第2の2Dキーポイントの座標情報に基づいて、2Dから2Dへのエピポーラ距離を取得し、
上記3Dから2Dへの投影誤差及び上記2Dから2Dへのエピポーラ距離に基づいて目的関数を算出し、上記目的関数を最小化して解を求め、上記第2画像のカメラ姿勢情報を得る。
上記第1の2Dキーポイントの座標情報及び上記第2の2Dキーポイントの座標情報に基づいて、2Dから2Dへのエピポーラ距離を取得することは、以下を含む。
Claims (15)
- 拡張現実の表示方法であって、
画像収集装置が、対象物の第1画像を取得することと、
前記画像収集装置が、前記対象物に対応する第1の2Dキーポイントの座標情報を第1画像から抽出することと、
前記画像収集装置が、前記対象物の第2画像を取得することと、
前記画像収集装置が、前記第1の2Dキーポイントの座標情報に基づいて前記第2画像の第2の2Dキーポイントの座標情報を取得することであって、前記第1の2Dキーポイントと前記第2の2Dキーポイントが前記対象物における同一のキーポイントであることと、
前記画像収集装置が、前記対象物に対応する3Dキーポイントの座標情報を取得することであって、前記3Dキーポイントが三角化処理されたキーポイントであることと、
前記画像収集装置が、前記第1の2Dキーポイントの座標情報、前記第2の2Dキーポイントの座標情報及び前記3Dキーポイントの座標情報に基づいて、前記第2画像のカメラ姿勢情報を決定することであって、前記カメラ姿勢情報が前記第2画像における前記対象物の位置を決定するためのものであることと、
前記画像収集装置が、付加画像情報を取得することと、
前記画像収集装置が、前記第2画像、前記第2画像のカメラ姿勢情報及び前記付加画像情報に基づいて、拡張画像を生成することと、を含み、
前記画像収集装置が前記第1の2Dキーポイントの座標情報、前記第2の2Dキーポイントの座標情報及び前記3Dキーポイントの座標情報に基づいて前記第2画像のカメラ姿勢情報を決定することは、
前記3Dキーポイントの座標情報に基づいて3Dから2Dへの投影誤差を取得することと、
前記第1の2Dキーポイントの座標情報及び前記第2の2Dキーポイントの座標情報に基づいて、2Dから2Dへのエピポーラ距離を取得することと、
前記3Dから2Dへの投影誤差及び前記2Dから2Dへのエピポーラ距離に基づいて目的関数を算出し、前記目的関数を最小化して解を求め、前記第2画像のカメラ姿勢情報を得ることと、を含むことを特徴とする、前記拡張現実の表示方法。 - 画像収集装置の姿勢情報の決定方法であって、
前記画像収集装置が、対象物の第1画像を取得することと、
前記画像収集装置が、前記対象物に対応する第1の2Dキーポイントの座標情報を前記第1画像から抽出することと、
前記画像収集装置が、前記対象物の第2画像を取得することと、
前記画像収集装置が、前記第1の2Dキーポイントの座標情報に基づいて前記第2画像の第2の2Dキーポイントの座標情報を取得することであって、前記第1の2Dキーポイントと前記第2の2Dキーポイントが前記対象物における同一のキーポイントであることと、
前記画像収集装置が、前記対象物に対応する3Dキーポイントの座標情報を取得することであって、前記3Dキーポイントが三角化処理されたキーポイントであることと、
前記画像収集装置が、前記第1の2Dキーポイントの座標情報、前記第2の2Dキーポイントの座標情報及び前記3Dキーポイントの座標情報に基づいて、前記第2画像のカメラ姿勢情報を決定することであって、前記カメラ姿勢情報が前記第2画像における前記対象物の位置を決定するためのものであることと、を含み、
前記画像収集装置が前記第1の2Dキーポイントの座標情報、前記第2の2Dキーポイントの座標情報及び前記3Dキーポイントの座標情報に基づいて前記第2画像のカメラ姿勢情報を決定することは、
前記3Dキーポイントの座標情報に基づいて3Dから2Dへの投影誤差を取得することと、
前記第1の2Dキーポイントの座標情報及び前記第2の2Dキーポイントの座標情報に基づいて、2Dから2Dへのエピポーラ距離を取得することと、
前記3Dから2Dへの投影誤差及び前記2Dから2Dへのエピポーラ距離に基づいて目的関数を算出し、前記目的関数を最小化して解を求め、前記第2画像のカメラ姿勢情報を得ることと、を含むことを特徴とする、前記画像収集装置の姿勢情報の決定方法。 - 前記画像収集装置が前記第1の2Dキーポイントの座標情報に基づいて前記第2画像の第2の2Dキーポイントの座標情報を取得する前に、前記方法は、
前記画像収集装置が、前記第2画像における前記第2の2Dキーポイントの数が閾値に達したかどうかを判定することと、
前記第2の2Dキーポイントの数が閾値に達した場合、前記画像収集装置が前記第1の2Dキーポイントの座標情報に基づいて第2画像の第2の2Dキーポイントの座標情報を取得するステップを開始することと、を更に含むことを特徴とする
請求項2に記載の方法。 - 前記画像収集装置が前記第1の2Dキーポイントの座標情報に基づいて前記第2画像の第2の2Dキーポイントの座標情報を取得することは、
前記第1画像から前記第1の2Dキーポイントを決定することと、
前記第1画像から前記第1の2Dキーポイントに対応する第2の2Dキーポイントを決定することと、
前記第1の2Dキーポイントの座標情報と変位情報に基づいて、前記第2の2Dキーポイントの座標情報を決定することであって、前記変位情報が第1の2Dキーポイントから前記第2の2Dキーポイントまでの移動距離であることと、を更に含むことを特徴とする
請求項2又は3に記載の方法。 - 前記画像収集装置が前記第2画像における前記第2の2Dキーポイントの数が閾値に達したかどうかを判定した後、前記方法は、
前記第2の2Dキーポイントの数が閾値に達していない場合、前記画像収集装置が、前記第1画像からn個のキーポイントを取得し、前記第2の2Dキーポイントと前記n個のキーポイントの数の合計を閾値に達するようにすることであって、前記nが正整数であり、前記n個のキーポイントが前記第1画像に対応するターゲット領域から取得されたものであり、前記第1画像が複数の均等に分割される領域を含み、ターゲット領域におけるキーポイントの数がキーポイントの所定の閾値未満であることと、
前記画像収集装置が、前記第1の2Dキーポイントの座標情報及び前記n個のキーポイントの座標情報に基づいて、前記第2画像における前記n個のキーポイントの座標情報及び前記第2の2Dキーポイントの座標情報を取得することと、を更に含むことを特徴とする
請求項3に記載の方法。 - 前記画像収集装置が前記第1の2Dキーポイントの座標情報及び前記n個のキーポイントの座標情報に基づいて、前記第2画像における前記第2の2Dキーポイントの座標情報を取得することは、
前記第1画像から前記第1の2Dキーポイント及び前記n個のキーポイントを決定することと、
前記第1画像から前記第1の2Dキーポイント及び前記n個のキーポイントに対応する第2の2Dキーポイントを決定することと、
前記第1の2Dキーポイントの座標情報、前記n個のキーポイントの座標情報及び変位情報に基づいて、前記第2画像における前記n個のキーポイントの座標情報及び前記第2の2Dキーポイントの座標情報を決定することであって、前記変位情報が前記第1の2Dキーポイントから前記第2の2Dキーポイントまでの移動距離と、前記n個のキーポイントから前記第2の2Dキーポイントまでの移動距離とを含むことと、を含むことを特徴とする
請求項5に記載の方法。 - 前記画像収集装置が前記第2画像のカメラ姿勢情報を決定した後、前記方法は、
前記画像収集装置が、前記第1の2Dキーポイントの座標情報、前記第2の2Dキーポイントの座標情報、前記第1画像のカメラ姿勢情報及び前記第2画像のカメラ姿勢情報に対して三角化処理を行い、選択待ちの3Dキーポイント及び前記選択待ちの3Dキーポイントの座標情報を得ることと、
前記画像収集装置が、前記選択待ちの3Dキーポイントに基づいて、観測角度を決定することであって、前記観測角度が前記第1画像の中心点から前記選択待ちの3Dキーポイントまでの連結線と、前記第2画像の中心点から前記選択待ちの3Dキーポイントまでの連結線とがなす角度であることと、
前記観測角度が所定の角度を超えた場合、前記画像収集装置が、前記選択待ちの3Dキーポイントの座標情報をターゲット3Dキーポイントの座標情報として決定することとを更に含むことを特徴とする
請求項2に記載の方法。 - 前記画像収集装置が前記第1の2Dキーポイントの座標情報に基づいて前記第2画像の第2の2Dキーポイントの座標情報を取得した後、前記方法は、
前記画像収集装置が追跡レコードを生成することであって、前記追跡レコードが複数の画像における2Dキーポイントの座標情報を記録するためのものであり、前記追跡レコードにおける最初の画像が前記第1画像であり、前記追跡レコードにおける最後の画像が前記第2画像であり、前記第1画像と前記第2画像との間に少なくとも1つの画像が含まれることを更に含むことを特徴とする
請求項2に記載の方法。 - 前記画像収集装置が前記対象物に対応する3Dキーポイントの座標情報を取得することは、
前記追跡レコードに基づいて前記対象物の第3の2Dキーポイントの座標情報及び前記対象物の第4の2Dキーポイントの座標情報を取得することであって、前記第3の2Dキーポイントが第3画像に属し、前記第4の2Dキーポイントが第4画像に属し、前記第3画像及び前記第4画像がいずれも前記第1画像と前記第2画像との間に位置することと、
前記第1の2Dキーポイントの座標情報及び前記第3の2Dキーポイントの座標情報に対して三角化処理を行い、第1の3Dキーポイントの座標情報を得ることと、
前記第3の2Dキーポイントの座標情報及び前記第4の2Dキーポイントの座標情報に対して三角化処理を行い、第2の3Dキーポイントの座標情報を得ることと、
前記第1の3Dキーポイントの座標情報に基づいて第1観測角度を決定し、前記第2の3Dキーポイントの座標情報に基づいて第2観測角度を決定することであって、前記第1観測角度が前記第1画像の中心点から前記第1の3Dキーポイントまでの連結線と、前記第3画像の中心点から前記第1の3Dキーポイントまでの連結線とがなす角度であり、前記第2観測角度が前記第2画像の中心点から前記第2の3Dキーポイントまでの連結線と、前記第3画像の中心点から前記第2の3Dキーポイントまでの連結線とがなす角度であることと、
前記第1観測角度が前記第2観測角度を超えた場合、前記第1の3Dキーポイントの座標情報を前記対象物の3Dキーポイントの座標情報として決定することと、
前記第2観測角度が前記第1観測角度を超えた場合、前記第2の3Dキーポイントの座標情報を前記対象物の3Dキーポイントの座標情報として決定することとを含むことを特徴とする
請求項8に記載の方法。 - 前記画像収集装置が前記3Dキーポイントの座標情報及び前記第2の2Dキーポイントの座標情報に基づいて、3Dから2Dへの投影誤差を取得することは、
ここで、前記Aは3Dから2Dへの投影誤差を表し、前記C3D2Dは前記第2画像に投影した3Dキーポイントの集合を表し、前記uiは前記第2の2Dキーポイントの座標情報を表し、前記πxは3Dを2Dへ投影した投影関数を表し、前記投影関数は前記カメラ姿勢情報に関連しており、前記piは前記3Dキーポイントの座標情報を表すことを含み、
前記第1の2Dキーポイントの座標情報及び前記第2の2Dキーポイントの座標情報に基づいて、2Dから2Dへのエピポーラ距離を取得することは、
ここで、前記Bは前記2Dから2Dへのエピポーラ距離を表し、前記C2D2Dは前記第2の2Dキーポイントと前記第1の2Dキーポイントの集合を表し、前記λは所定の平衡定数を表し、前記所定の平衡定数は前記2Dから2Dへのエピポーラ距離と前記3Dから2Dへの投影誤差との間の差を所定の範囲内にするためのものであり、前記ui’は前記第1の2Dキーポイントの座標情報を表し、前記Fxは前記第2画像と前記第1画像との間の基本行列を表し、前記投影関数は前記カメラ姿勢情報に関連していることを含み、
3Dから2Dへの投影誤差及び2Dから2Dへのエピポーラ距離に基づいて目的関数を算出することは、
ここで、E(x)は前記目的関数を表し、前記xは前記第2画像のカメラ姿勢情報を表すことを含むことを特徴とする
請求項2に記載の方法。 - 画像収集装置であって、1つ又は複数のプロセッサと、1つ又は複数のプログラムユニットを記憶するメモリとを備え、前記プログラムユニットは前記プロセッサで実行され、前記プログラムユニットは、取得モジュールと、抽出モジュールと、決定モジュールとを備え、
前記取得モジュールは、対象物の第1画像を取得するように構成され、
前記抽出モジュールは、前記取得モジュールによって取得された前記第1画像から前記対象物に対応する第1の2Dキーポイントの座標情報を抽出するように構成され、
前記取得モジュールは、対象物の第2画像を取得するように更に構成され、
前記取得モジュールは、前記抽出モジュールにより抽出された前記第1の2Dキーポイントの座標情報に基づいて前記第2画像の第2の2Dキーポイントの座標情報を取得するように更に構成され、前記第1の2Dキーポイントと前記第2の2Dキーポイントは前記対象物における同一のキーポイントであり、
前記取得モジュールは、前記対象物に対応する3Dキーポイントの座標情報を取得するように更に構成され、前記3Dキーポイントは三角化処理されたキーポイントであり、
前記決定モジュールは、前記抽出モジュールにより抽出された前記第1の2Dキーポイントの座標情報、前記取得モジュールにより取得された前記第2の2Dキーポイントの座標情報及び前記3Dキーポイントの座標情報に基づいて、前記第2画像のカメラ姿勢情報を決定するように構成され、前記カメラ姿勢情報は、前記第2画像における対象物の位置を決定するためのものであり、
前記決定モジュールは、前記3Dキーポイントの座標情報に基づいて3Dから2Dへの投影誤差を取得し、前記第1の2Dキーポイントの座標情報及び前記第2の2Dキーポイントの座標情報に基づいて、2Dから2Dへのエピポーラ距離を取得し、前記3Dから2Dへの投影誤差及び前記2Dから2Dへのエピポーラ距離に基づいて目的関数を算出し、前記目的関数を最小化して解を求め、前記第2画像のカメラ姿勢情報を得るように構成されることを特徴とする、前記画像収集装置。 - 画像収集装置であって、メモリと、プロセッサと、バスシステムとを備え、
前記メモリは、プログラムを記憶するように構成され、
前記プロセッサは前記メモリにおけるプログラムを実行するように構成され、具体的には、
対象物の第1画像を取得するステップと、
前記対象物に対応する第1の2Dキーポイントの座標情報を前記第1画像から抽出するステップと、
前記対象物の第2画像を取得するステップと、
前記第1の2Dキーポイントの座標情報に基づいて前記第2画像の第2の2Dキーポイントの座標情報を取得するステップであって、前記第1の2Dキーポイントと前記第2の2Dキーポイントが上記対象物における同一のキーポイントであるステップと、
前記対象物に対応する3Dキーポイントの座標情報を取得し、前記3Dキーポイントが三角化処理されたキーポイントであるステップと、
前記第1の2Dキーポイントの座標情報、前記第2の2Dキーポイントの座標情報及び前記3Dキーポイントの座標情報に基づいて、前記第2画像のカメラ姿勢情報を決定するステップであって、前記カメラ姿勢情報が前記第2画像における前記対象物の位置を決定するためのものであるステップと、を含み、
前記バスシステムは、前記メモリと前記プロセッサを接続し、前記メモリと前記プロセッサが通信を行うようにするためのものであり、
前記第1の2Dキーポイントの座標情報、前記第2の2Dキーポイントの座標情報及び前記3Dキーポイントの座標情報に基づいて前記第2画像のカメラ姿勢情報を決定するステップは、
前記3Dキーポイントの座標情報に基づいて3Dから2Dへの投影誤差を取得するステップと、
前記第1の2Dキーポイントの座標情報及び前記第2の2Dキーポイントの座標情報に基づいて、2Dから2Dへのエピポーラ距離を取得するステップと、
前記3Dから2Dへの投影誤差及び前記2Dから2Dへのエピポーラ距離に基づいて目的関数を算出し、前記目的関数を最小化して解を求め、前記第2画像のカメラ姿勢情報を得るステップと、を含むことを特徴とする、前記画像収集装置。 - 前記プロセッサは
前記第1の2Dキーポイントの座標情報、前記第2の2Dキーポイントの座標情報、前記第1画像のカメラ姿勢情報及び前記第2画像のカメラ姿勢情報に対して三角化処理を行い、選択待ちの3Dキーポイント及び前記選択待ちの3Dキーポイントの座標情報を得るステップと、
前記選択待ちの3Dキーポイントに基づいて観測角度を決定するステップであって、前記観測角度が、前記第1画像の中心点から前記選択待ちの3Dキーポイントまでの連結線と、前記第2画像の中心点から前記選択待ちの3Dキーポイントまでの連結線とがなす角度であるステップと、
前記観測角度が所定の角度を超えた場合、前記選択待ちの3Dキーポイントの座標情報をターゲット3Dキーポイントの座標情報として決定するステップを実行するように更に構成されることを特徴とする
請求項12に記載の画像収集装置。 - コンピュータ可読記憶媒体であって、コンピュータ上で実行されるとき、コンピュータに請求項1、又は請求項2から10のいずれか一項に記載の方法を実行させる命令が記憶される、前記コンピュータ可読記憶媒体。
- 電子機器であって、プロセッサと、メモリとを備え、前記メモリには、少なく1つの命令が記憶されており、前記少なくとも1つの命令は、前記プロセッサによりロードされて実行され、請求項1、又は請求項2~10のうちいずれか一項に記載の方法を実現させる、前記電子機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710643376.8 | 2017-07-31 | ||
CN201710643376.8A CN109325978B (zh) | 2017-07-31 | 2017-07-31 | 增强现实显示的方法、姿态信息的确定方法及装置 |
PCT/CN2018/097494 WO2019024793A1 (zh) | 2017-07-31 | 2018-07-27 | 增强现实显示的方法、姿态信息的确定方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020529065A JP2020529065A (ja) | 2020-10-01 |
JP7000555B2 true JP7000555B2 (ja) | 2022-02-10 |
Family
ID=65233503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020503262A Active JP7000555B2 (ja) | 2017-07-31 | 2018-07-27 | 拡張現実の表示方法、姿勢情報の決定方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11222442B2 (ja) |
EP (1) | EP3664033A4 (ja) |
JP (1) | JP7000555B2 (ja) |
KR (1) | KR102321325B1 (ja) |
CN (2) | CN109325978B (ja) |
WO (1) | WO2019024793A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109325978B (zh) * | 2017-07-31 | 2022-04-05 | 深圳市腾讯计算机系统有限公司 | 增强现实显示的方法、姿态信息的确定方法及装置 |
CN113987228A (zh) * | 2018-06-20 | 2022-01-28 | 华为技术有限公司 | 一种数据库构建方法、一种定位方法及其相关设备 |
US11367208B2 (en) | 2019-06-25 | 2022-06-21 | Nvidia Corporation | Image-based keypoint generation |
US11619724B2 (en) * | 2019-06-26 | 2023-04-04 | Nvidia Corporation | Calibration of multiple lidars mounted on a vehicle using localization based on a high definition map |
CN112862976B (zh) * | 2019-11-12 | 2023-09-08 | 北京超图软件股份有限公司 | 一种数据处理方法、装置及电子设备 |
CN113225613B (zh) * | 2020-01-21 | 2022-07-08 | 北京达佳互联信息技术有限公司 | 图像识别、视频直播方法和装置 |
CN111523408B (zh) * | 2020-04-09 | 2023-09-15 | 北京百度网讯科技有限公司 | 动作捕捉方法和装置 |
CN111862199B (zh) * | 2020-06-17 | 2024-01-09 | 北京百度网讯科技有限公司 | 定位方法、装置、电子设备和存储介质 |
KR20220033924A (ko) * | 2020-09-10 | 2022-03-17 | 삼성전자주식회사 | 증강 현실 장치 및 그 제어 방법 |
CN112214625B (zh) * | 2020-10-13 | 2023-09-01 | 北京百度网讯科技有限公司 | 用于处理图像的方法、装置、设备以及存储介质 |
CN114531580B (zh) * | 2020-11-23 | 2023-11-21 | 北京四维图新科技股份有限公司 | 图像处理方法及装置 |
CN112419388A (zh) * | 2020-11-24 | 2021-02-26 | 深圳市商汤科技有限公司 | 深度检测方法、装置、电子设备和计算机可读存储介质 |
CN112967339B (zh) * | 2020-12-28 | 2023-07-25 | 北京市商汤科技开发有限公司 | 一种车辆位姿的确定方法、车辆控制方法及装置、车辆 |
CN118230203A (zh) * | 2021-09-08 | 2024-06-21 | 荣耀终端有限公司 | Ar翻译的处理方法及电子设备 |
CN114494334B (zh) * | 2022-01-28 | 2023-02-03 | 北京百度网讯科技有限公司 | 调整三维姿态的方法、装置、电子设备及存储介质 |
CN115937305A (zh) * | 2022-06-28 | 2023-04-07 | 北京字跳网络技术有限公司 | 图像处理方法、装置及电子设备 |
KR102616085B1 (ko) * | 2022-11-14 | 2023-12-20 | 주식회사 브이알크루 | 비주얼 로컬라이제이션을 이용하여 카메라 포즈의 유효성을 결정하기 위한 방법 및 장치 |
KR102678964B1 (ko) * | 2023-09-26 | 2024-06-28 | 주식회사 차세대아이씨티융합센터 | 사무실 3d 자리 배치도 구현 시스템 및 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008304269A (ja) | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2011047739A (ja) | 2009-08-26 | 2011-03-10 | Kddi Corp | カメラパラメータのキャリブレーション装置及びプログラム |
JP2017130042A (ja) | 2016-01-20 | 2017-07-27 | 株式会社リコー | 映像処理装置、映像処理方法、及びプログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7145478B2 (en) * | 2002-12-17 | 2006-12-05 | Evolution Robotics, Inc. | Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system |
NO327279B1 (no) * | 2007-05-22 | 2009-06-02 | Metaio Gmbh | Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning |
KR100980202B1 (ko) * | 2008-10-30 | 2010-09-07 | 한양대학교 산학협력단 | 3차원 가상물체와 인터랙션이 가능한 모바일 증강현실 시스템 및 방법 |
KR101085762B1 (ko) * | 2009-07-02 | 2011-11-21 | 삼성에스디에스 주식회사 | 증강현실을 이용한 주얼리 착용 모습 디스플레이 장치 및 방법 |
CN101826206B (zh) * | 2010-03-31 | 2011-12-28 | 北京交通大学 | 一种相机自定标的方法 |
WO2013069012A1 (en) * | 2011-11-07 | 2013-05-16 | Dimensional Perception Technologies Ltd. | Method and system for determining position and/or orientation |
US9148650B2 (en) * | 2012-09-17 | 2015-09-29 | Nec Laboratories America, Inc. | Real-time monocular visual odometry |
US9466143B1 (en) * | 2013-05-03 | 2016-10-11 | Exelis, Inc. | Geoaccurate three-dimensional reconstruction via image-based geometry |
AU2013237718A1 (en) * | 2013-10-04 | 2015-04-23 | Canon Kabushiki Kaisha | Method, apparatus and system for selecting a frame |
CN104933755B (zh) * | 2014-03-18 | 2017-11-28 | 华为技术有限公司 | 一种静态物体重建方法和系统 |
JP6435750B2 (ja) * | 2014-09-26 | 2018-12-12 | 富士通株式会社 | 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム |
US9685005B2 (en) * | 2015-01-02 | 2017-06-20 | Eon Reality, Inc. | Virtual lasers for interacting with augmented reality environments |
US9869863B2 (en) * | 2015-10-05 | 2018-01-16 | Unity IPR ApS | Systems and methods for processing a 2D video |
US10186024B2 (en) * | 2015-12-29 | 2019-01-22 | Texas Instruments Incorporated | Method and system for real time structure from motion in a computer vision system |
CN106778890A (zh) * | 2016-12-28 | 2017-05-31 | 南京师范大学 | 基于sift匹配的云台相机姿态变化检测方法 |
CN109325978B (zh) * | 2017-07-31 | 2022-04-05 | 深圳市腾讯计算机系统有限公司 | 增强现实显示的方法、姿态信息的确定方法及装置 |
-
2017
- 2017-07-31 CN CN201710643376.8A patent/CN109325978B/zh active Active
- 2017-07-31 CN CN201910834140.1A patent/CN110533723B/zh active Active
-
2018
- 2018-07-27 JP JP2020503262A patent/JP7000555B2/ja active Active
- 2018-07-27 WO PCT/CN2018/097494 patent/WO2019024793A1/zh unknown
- 2018-07-27 KR KR1020207005130A patent/KR102321325B1/ko active IP Right Grant
- 2018-07-27 EP EP18841112.8A patent/EP3664033A4/en active Pending
-
2020
- 2020-01-31 US US16/778,259 patent/US11222442B2/en active Active
-
2021
- 2021-12-01 US US17/540,131 patent/US11763487B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008304269A (ja) | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2011047739A (ja) | 2009-08-26 | 2011-03-10 | Kddi Corp | カメラパラメータのキャリブレーション装置及びプログラム |
JP2017130042A (ja) | 2016-01-20 | 2017-07-27 | 株式会社リコー | 映像処理装置、映像処理方法、及びプログラム |
Non-Patent Citations (2)
Title |
---|
X. Wang, et al.,,The use of object tracking in visual SLAM,2017 International Conference on Applied System Innovation (ICASI),米国,2017年05月13日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7988567 |
上田 雄大,外1名,携帯情報端末に適した効率の良い自己位置推定および地図生成アルゴリズム,電子情報通信学会技術研究報告 Vol.112 No.198,日本,一般社団法人電子情報通信学会 ,2012年,第112巻 |
Also Published As
Publication number | Publication date |
---|---|
US20200167955A1 (en) | 2020-05-28 |
CN109325978A (zh) | 2019-02-12 |
CN110533723B (zh) | 2022-03-01 |
EP3664033A1 (en) | 2020-06-10 |
WO2019024793A1 (zh) | 2019-02-07 |
EP3664033A4 (en) | 2020-12-02 |
US20220092817A1 (en) | 2022-03-24 |
US11222442B2 (en) | 2022-01-11 |
CN109325978B (zh) | 2022-04-05 |
JP2020529065A (ja) | 2020-10-01 |
CN110533723A (zh) | 2019-12-03 |
KR102321325B1 (ko) | 2021-11-02 |
US11763487B2 (en) | 2023-09-19 |
KR20200027029A (ko) | 2020-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7000555B2 (ja) | 拡張現実の表示方法、姿勢情報の決定方法及び装置 | |
US11100649B2 (en) | Fiducial marker patterns, their automatic detection in images, and applications thereof | |
CN102388406B (zh) | 使用便携式电子设备记录产生三维模型 | |
JP5799521B2 (ja) | 情報処理装置、オーサリング方法及びプログラム | |
JP5920352B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111145352A (zh) | 一种房屋实景图展示方法、装置、终端设备及存储介质 | |
CN102142081B (zh) | 图像处理设备、图像处理方法、以及程序 | |
KR101533320B1 (ko) | 포인터가 불필요한 3차원 객체 정보 획득 장치 | |
CN108985220A (zh) | 一种人脸图像处理方法、装置及存储介质 | |
CN112733641B (zh) | 物体尺寸测量方法、装置、设备及存储介质 | |
CN102750536A (zh) | 图像处理设备、图像处理方法和程序 | |
Rahman et al. | Spatial-geometric approach to physical mobile interaction based on accelerometer and IR sensory data fusion | |
Abbas et al. | Augmented reality-based real-time accurate artifact management system for museums | |
CN112788443B (zh) | 基于光通信装置的交互方法和系统 | |
CN105739684B (zh) | 具有手势校准机制的电子系统及其操作方法 | |
US20220390250A1 (en) | User Equipment and Control Method Thereof | |
CN114241046A (zh) | 数据标注方法、装置、计算机设备及存储介质 | |
JP2024128528A (ja) | 物品管理システム、物品管理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7000555 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |