JP7404011B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP7404011B2
JP7404011B2 JP2019173266A JP2019173266A JP7404011B2 JP 7404011 B2 JP7404011 B2 JP 7404011B2 JP 2019173266 A JP2019173266 A JP 2019173266A JP 2019173266 A JP2019173266 A JP 2019173266A JP 7404011 B2 JP7404011 B2 JP 7404011B2
Authority
JP
Japan
Prior art keywords
processor
marker
terminal device
camera
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019173266A
Other languages
English (en)
Other versions
JP2021051468A (ja
Inventor
彰彦 藤原
美香 平間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2019173266A priority Critical patent/JP7404011B2/ja
Priority to US16/911,350 priority patent/US11410329B2/en
Priority to EP20190149.3A priority patent/EP3798984A1/en
Publication of JP2021051468A publication Critical patent/JP2021051468A/ja
Application granted granted Critical
Publication of JP7404011B2 publication Critical patent/JP7404011B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、情報処理装置に関する。
拡張現実(AR(augmented reality))は、現実世界に仮想物体を重畳表示させることで各種情報を提示することができる。拡張現実は、各種情報を提示することで、店舗などにおける買物客の買い物、及び業務現場における作業員などの業務を支援することが可能である。
端末装置の位置をトラッキングする方法として、ARマーカー(以下単に「マーカー」という。)を用いて位置姿勢を計測する方法が知られている。マーカーを用いたトラッキングには、カメラとマーカーとの相対位置を正確に計測する必要がある。しかしながら、計測条件によっては相対位置の計測精度が低下する。例えば、端末装置が回転中でマーカーとの相対角度が大きい場合、端末装置がマーカーから遠ざかっていく途中などでカメラにより撮影した画像に対するマーカーが占有する面積が小さい場合、カメラとマーカーの間に障害物がある場合、又はマーカーに当たっている照明の強さが適正でない場合において計測精度が低下する。このように計測精度が低下している状態では、端末装置の位置を正確に求めることができない。
特開2006-234453号公報
本発明の実施形態が解決しようとする課題は、計測精度が低下している状態でも、高精度に位置姿勢を補正することができる情報処理装置を提供することである。
実施形態の情報処理装置は、取得部、認識部及び位置推定部を備える。取得部は、カメラで撮影した画像を取得する。認識部は、前記画像中のマーカーを認識する。位置推定部は、前記認識部が前記マーカーを認識した回数が所定の回数以上である場合、前記カメラと前記マーカーの相対位置に基づき前記カメラの位置を推定する。
実施形態に係る端末装置の要部構成の一例を示すブロック図。 図1中のプロセッサー11による処理の一例を示すフローチャート。
以下、実施形態に係る端末装置について図面を用いて説明する。なお、以下の実施形態の説明に用いる各図面は、説明のため、構成を省略して示している場合がある。また、各図面及び本明細書中において、同一の符号は同様の要素を示す。
図1は、実施形態に係る端末装置10の要部構成の一例を示すブロック図である。
端末装置10は、カメラで撮影した現実世界の映像にリアルタイムに仮想物体を重畳表示させる。したがって、端末装置10は、拡張現実用のディスプレイ装置である。端末装置10は、例えば、タブレット端末、スマートホン又はHMD(head-mounted display)などである。店舗などで用いる端末装置10は、例えば、ショッピングカート又はその他の荷車などの車輪移動体に取り付けたタブレット端末である。端末装置10は、一例として、プロセッサー11、ROM(read-only memory)12、RAM(random-access memory)13、補助記憶デバイス14、通信インターフェース15、カメラ16、タッチパネル17及びセンサー18を含む。そして、バス19などが、これら各部を接続する。端末装置10は、情報処理装置の一例である。
プロセッサー11は、端末装置10の動作に必要な演算及び制御などの処理を行うコンピューターの中枢部分に相当する。プロセッサー11は、ROM12又は補助記憶デバイス14などに記憶されたファームウェア、システムソフトウェア及びアプリケーションソフトウェアなどのプログラムに基づいて、端末装置10の各種の機能を実現するべく各部を制御する。また、プロセッサー11は、当該プログラムに基づいて後述する処理を実行する。なお、当該プログラムの一部又は全部は、プロセッサー11の回路内に組み込まれていても良い。プロセッサー11は、例えば、CPU(central processing unit)、MPU(micro processing unit)、SoC(system on a chip)、DSP(digital signal processor)、GPU(graphics processing unit)、ASIC(application specific integrated circuit)、PLD(programmable logic device)又はFPGA(field-programmable gate array)などである。あるいは、プロセッサー11は、これらのうちの複数を組み合わせたものである。
ROM12は、プロセッサー11を中枢とするコンピューターの主記憶装置に相当する。ROM12は、専らデータの読み出しに用いられる不揮発性メモリである。ROM12は、上記のプログラムのうち、例えばファームウェアなどを記憶する。また、ROM12は、プロセッサー11が各種の処理を行う上で使用するデータなども記憶する。
RAM13は、プロセッサー11を中枢とするコンピューターの主記憶装置に相当する。RAM13は、データの読み書きに用いられるメモリである。RAM13は、プロセッサー11が各種の処理を行う上で一時的に使用するデータを記憶するワークエリアなどとして利用される。RAM13は、典型的には揮発性メモリである。
補助記憶デバイス14は、プロセッサー11を中枢とするコンピューターの補助記憶装置に相当する。補助記憶デバイス14は、例えばEEPROM(electric erasable programmable read-only memory)、HDD(hard disk drive)又はフラッシュメモリなどである。補助記憶デバイス14は、上記のプログラムのうち、例えば、システムソフトウェア及びアプリケーションソフトウェアなどを記憶する。また、補助記憶デバイス14は、プロセッサー11が各種の処理を行う上で使用するデータ、プロセッサー11での処理によって生成されたデータ及び各種の設定値などを保存する。
また、補助記憶デバイス14は、マーカーDB(database)141を記憶する。マーカーDB141は、マーカーが登録される。マーカーDB141は、登録された各マーカーについて、マーカーID(identifier)、特徴量及びワールド座標系における位置姿勢などを記憶する。マーカーIDは、マーカーごとにユニークに付与される識別情報である。
通信インターフェース15は、端末装置10がネットワークNWなどを介して通信するためのインターフェースである。
カメラ16は、画像を撮影する。また、カメラ16は、撮影した画像データを出力する。なお、動画像は、画像の一種である。
タッチパネル17は、例えば、液晶ディスプレイ又は有機EL(electro-luminescence)ディスプレイなどのディスプレイとタッチ入力によるポインティングデバイスとが積層されたものである。タッチパネル17が備えるディスプレイは、端末装置10の操作者に各種情報を通知するための画面を表示する表示デバイスとして機能する。また、タッチパネル17は、当該操作者によるタッチ操作を受け付ける入力デバイスとして機能する。
なお、端末装置10は、通常、カメラ16をタッチパネル17の表示面と反対側を向くように設ける。すなわち、カメラ16に入射する光の光軸方向とタッチパネル17の法線方向が同じ方向を向いている。
センサー18は、端末装置10の位置姿勢の推定に用いる各種センサーである。センサー18は、計測値を出力する。センサー18は、例えば、加速度計、ジャイロスコープ、オドメーター、電子コンパスなどの磁力計、GPS(Global Positioning System)センサーなどのGNSS(global navigation satellite system)センサー、深度センサー、又は電磁式、光学式、機械式若しくは超音波式などのトラッカーなどである。なお、端末装置10は、センサー18として、上記のセンサーのうちの複数種類を備えていても良い。例えば、センサー18は、ショッピングカートなどの車輪移動体に取り付けてあっても良い。
なお、センサー18は、端末装置10の外部に有線又は無線で接続されるものであっても良い。
バス19は、コントロールバス、アドレスバス及びデータバスなどを含み、端末装置10の各部で授受される信号を伝送する。
以下、実施形態に係る端末装置10の動作を図2に基づいて説明する。なお、以下の動作説明における処理の内容は一例であって、同様な結果を得ることが可能な様々な処理を適宜に利用できる。図2は、端末装置10のプロセッサー11による処理の一例を示すフローチャートである。プロセッサー11は、例えば、ROM12又は補助記憶デバイス14などに記憶されたプログラムに基づいてこの処理を実行する。
プロセッサー11は、例えば、トラッキングをオンにする操作が行われたことなどに応じて図2に示す処理を開始する。
図2のACT11においてプロセッサー11は、カメラ16が出力する画像を取得する。なお、ACT11で最後に取得された画像を以下「取得画像」という。
以上より、プロセッサー11は、ACT11の処理を行うことで、カメラ16で撮影した画像を取得する取得部として機能する。
ACT12においてプロセッサー11は、取得画像中に、マーカーDB141に登録されているマーカーが映っているか否かを判定する。プロセッサー11は、取得画像中にマーカーを認識したならば、マーカーが映っていると判定する。なお、マーカーの認識には公知の方法を用いることができる。また、ACT12で最後に認識されたマーカーを以下「認識マーカー」という。プロセッサー11は、取得画像中にマーカーが映っていないならば、ACT12においてNoと判定してACT13へと進む。
以上より、プロセッサー11は、ACT12の処理を行うことで、取得画像中のマーカーを認識する認識部として機能する。
ACT13においてプロセッサー11は、センサー18が出力する計測値を取得する。
ACT14においてプロセッサー11は、ACT13で取得した計測値に基づき、端末装置10の位置姿勢を補正する。すなわち、プロセッサー11は、端末装置10の位置姿勢のトラッキングを行う。例えば、プロセッサー11は、DR(dead reckoning)などの手法を用いて位置姿勢を推定する。そして、プロセッサー11は、推定した位置姿勢を端末装置10の現在の位置姿勢として決定することで、端末装置10の位置姿勢を補正する。また、プロセッサー11は、変数T1に現在時刻を代入する。変数T1は、最後に端末装置10の現在の位置姿勢として決定した時刻を示す。なお、端末装置10の位置姿勢は、例えば、ワールド座標系におけるカメラ16又はタッチパネル17の位置姿勢である。
ACT15においてプロセッサー11は、トラッキングを終了するか否かを判定する。プロセッサー11は、例えば、トラッキングをオフにする操作が行われたことに応じてトラッキングを終了すると判定する。プロセッサー11は、トラッキングを終了しないならば、ACT15においてNoと判定してACT11へと戻る。対して、プロセッサー11は、トラッキングを終了するならば、ACT15においてYesと判定して図2に示す処理を終了する。
また、プロセッサー11は、取得画像中にマーカーが映っているならば、ACT12においてYesと判定してACT16へと進む。
ACT16においてプロセッサー11は、端末装置10に対する認識マーカーの相対位置姿勢を推定する。なお、端末装置10の位置姿勢は、例えば、カメラ16の位置姿勢又はタッチパネル17の位置姿勢を示す。認識マーカーの位置は、例えば、認識マーカー中の一点の位置である。当該一点は、例えば認識マーカーの中央である。プロセッサー11は、例えば、取得画像を用いて端末装置10から認識マーカーまでの距離(相対位置)を推定する。また、プロセッサー11は、例えば、取得画像を用いて、端末装置10が向いている向きと認識マーカーの平面が向いている向きとがなす角度(相対姿勢)を推定する。なお、位置姿勢を求める方法として、他の公知の方法を用いることもできる。
以上より、プロセッサー11は、ACT16の処理を行うことで、カメラ16とマーカーの相対位置を推定する相対位置推定部として機能する。
ACT17においてプロセッサー11は、ACT16で求めた相対位置姿勢、認識マーカーのマーカーID、及び認識時刻を関連付けて履歴データとしてRAM13などに記憶する。なお、認識時刻は、ACT12において認識マーカーが認識された時刻である。
ACT18においてプロセッサー11は、位置補正を行うか否かを判定する。例えば、プロセッサー11は、履歴データを参照して、所定の時間t1以内にマーカーIDが同じマーカーの相対位置姿勢が所定の回数n1回以上記憶されているか否かを判定する。そして、プロセッサー11は、t1以内にマーカーIDが同じマーカーの相対位置姿勢がn1回以上記憶されている場合に位置補正を行うと判定する。例えば、t1が5秒でn1回が3回であるとする。この場合、プロセッサー11は、5秒以内に3回以上同じマーカーの相対位置姿勢を求めているならば、位置補正を行うと判定する。これにより、プロセッサー11は、カメラ16がマーカーを映している間、3回相対位置姿勢を求めるごとに位置補正を行うことになる。なお、t1は、任意の時間である。また、n1は、2以上の整数である。プロセッサー11は、位置補正を行うと判定しないならば、ACT18においてNoと判定してACT13へと進む。対して、プロセッサー11は、位置補正を行うと判定するならば、ACT18においてYesと判定してACT19へと進む。
ACT19においてプロセッサー11は、履歴データから、認識マーカーとマーカーIDが同じデータを抽出する。
なお、抽出するデータ数に上限が設けてあっても良い。例えば、上限がn2個であるとすると、プロセッサー11は、認識時刻が新しいものから順にn2個のデータを抽出する。ただし、認識マーカーとマーカーIDが同じデータの数がn2個より少ない場合、プロセッサー11は、認識マーカーとマーカーIDが同じデータを全て抽出する。なお、n2は、2以上の整数である。
また、プロセッサー11は、認識時刻が現在時刻から所定の時間t2前までのデータのみを抽出しても良い。なお、t2は、任意の時間である。なお、プロセッサー11は、認識時刻が現在時刻からt2前までのデータを認識時刻が新しいものから順にn2個を上限としてデータを抽出しても良い。
ACT20においてプロセッサー11は、ACT19で抽出した複数のデータのばらつきが大きいか否かを判定する。例えば、プロセッサー11は、当該複数のデータの標準偏差σが所定の値以上である場合にばらつきが大きいと判定する。あるいは、プロセッサー11は、その他の公知の方法を用いてばらつきが大きいことを判定しても良い。プロセッサー11は、当該複数のデータのばらつきが大きいならば、ACT20においてYesと判定してACT13へと進む。対して、プロセッサー11は、当該複数のデータのばらつきが大きくないならば、ACT20においてNoと判定してACT21へと進む。
ACT21においてプロセッサー11は、ACT19で抽出した複数のデータを用いて、統計的な手法により、端末装置10に対する認識マーカーの相対位置姿勢を推定する。例えば、プロセッサー11は、当該複数のデータに対して移動平均などの手法を用いて時系列平滑化を行うことで相対位置姿勢を推定する。また、プロセッサー11は、当該複数のデータのうちの外れ値を棄却しても良い。例えば、プロセッサー11は、当該複数のデータの中央値から所定の値以上外れている値を外れ値とする。あるいは、プロセッサー11は、その他の公知の方法を用いて外れ値を棄却しても良い。
ACT22においてプロセッサー11は、ACT21で推定した相対位置姿勢と、認識マーカーの位置姿勢に基づき、端末装置10の位置姿勢を推定する。なお、プロセッサー11は、認識マーカーの位置姿勢をマーカーDBから取得する。
以上より、プロセッサー11は、ACT18及びACT22の処理を行うことで、マーカーを認識した回数が所定の回数以上である場合、カメラ16の位置を推定する位置推定部として機能する。また、プロセッサー11は、ACT21及びACT22の処理を行うことで、複数の相対位置を用いてカメラ16の位置を推定する位置推定部として機能する。
ACT23においてプロセッサー11は、ACT22で求めた位置姿勢が適正な値であるか否かを判定する。例えば、プロセッサー11は、位置姿勢が急激に変化しているような場合に適正な値でないと判定する。位置姿勢が急激に変化していることから適正な値でないことを判定する方法の例を以下に示す。
例えば、プロセッサー11は、最後にACT14又はACT24で決定した端末装置10の現在の位置姿勢に対して、ACT22で求めた位置姿勢が所定よりも大きく異なる場合に適正な値でないと判定する。例えば、プロセッサー11は、現在の端末装置10の位置からACT22で求めた位置までの距離を、現在時刻からT1を引いた時間で割った速度が、所定の速度以上である場合に適正な値でないと判定する。当該所定の速度は、例えば、人間の歩行速度に対して顕著に速いような速度である。あるいは、プロセッサー11は、現在の端末装置10の位置からACT22で求めた位置までの距離が所定の距離以上である場合に適正な値でないと判定する。また、プロセッサー11は、例えば、現在の端末装置10の姿勢からACT22で求めた姿勢までの角度を、現在時刻からT1を引いた時間で割った角速度が、所定の角速度以上である場合に適正な値でないと判定する。あるいは、プロセッサー11は、現在の端末装置10の姿勢からACT22で求めた姿勢までの角度が所定の角度以上である場合に適正な値でないと判定する。
プロセッサー11は、ACT22で求めた位置姿勢が適正な値でないならば、ACT23においてNoと判定してACT13へと進む。すなわち、プロセッサー11は、ACT22で求めた位置姿勢を棄却し、ACT24の処理に用いない。対して、プロセッサー11は、ACT22で求めた位置姿勢が適正な値であるならば、ACT23においてYesと判定してACT24へと進む。
ACT24においてプロセッサー11は、ACT22で求めた位置姿勢に基づき、端末装置10の位置姿勢を補正する。すなわち、プロセッサー11は、ACT22で求めた位置姿勢を、端末装置10の現在の位置姿勢として決定することで、端末装置10の位置姿勢を補正する。また、プロセッサー11は、変数T1に現在時刻を代入する。
ACT25においてプロセッサー11は、履歴データをクリアする。これにより、RAM13などは、履歴データを1つも記憶していない状態になる。プロセッサー11は、ACT25の処理の後、ACT13へと進む。
実施形態の端末装置10は、所定の時間以内に同じマーカーを所定の回数以上認識した場合に、端末装置10の位置姿勢を補正する。これにより、実施形態の端末装置10は、計測精度が低下している状態でも、高精度に端末装置10の位置姿勢を補正することができる。
また、実施形態の端末装置10は、マーカーの相対位置姿勢を複数回計測し、複数回計測した相対位置姿勢を用いて端末装置10の位置姿勢を推定する。これにより、実施形態の端末装置10は、計測精度が低下している状態でも、高精度に端末装置10の位置姿勢を補正することができる。
また、実施形態の端末装置10は、マーカーの相対位置姿勢を複数回計測し、複数回計測した相対位置姿勢を時系列平滑化することで、端末装置10の位置姿勢を推定する。これにより、実施形態の端末装置10は、計測精度が低下している状態でも、高精度に端末装置10の位置姿勢を補正することができる。
また、実施形態の端末装置10は、マーカーの相対位置姿勢を複数回計測したデータのばらつきが所定より小さい場合に端末装置10の位置姿勢を補正する。これにより、実施形態の端末装置10は、誤差の大きい補正を行うことを防ぐことができる。
また、実施形態の端末装置10は、推定した端末装置10の位置姿勢が現在の位置姿勢から急激に変化している場合、当該推定値を棄却する。これにより、実施形態の端末装置10は、誤差の大きい補正を行うことを防ぐことができる。
上記の実施形態は以下のような変形も可能である。
プロセッサー11は、ACT20においてYesと判定した場合に、ACT25と同様に履歴データをクリアしても良い。また、プロセッサー11は、ACT23においてNoと判定した場合に、ACT25と同様に履歴データをクリアしても良い。
プロセッサー11は、ACT25の処理を行わなくても良い。
上記の実施形態では、プロセッサー11は、統計的な手法により、端末装置10に対する認識マーカーの相対位置姿勢を推定した。これに代えて、プロセッサー11は、端末装置10の位置姿勢を統計的な手法により推定しても良い。
プロセッサー11は、上記実施形態においてプログラムによって実現する処理の一部又は全部を、回路のハードウェア構成によって実現するものであっても良い。
端末装置10は、例えば、上記の各処理を実行するためのプログラムが記憶された状態で各装置の管理者などへと譲渡される。あるいは、端末装置10は、当該プログラムが記憶されない状態で当該管理者などに譲渡される。そして、当該プログラムが別途に当該管理者などへと譲渡され、当該管理者又はサービスマンなどによる操作に基づいて端末装置10に記憶される。このときのプログラムの譲渡は、例えば、ディスクメディア又は半導体メモリなどのようなリムーバブルな記憶媒体を用いて、あるいはインターネット又はLANなどを介したダウンロードにより実現できる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10……端末装置、11……プロセッサー、12……ROM、13……RAM、14……補助記憶デバイス、15……通信インターフェース、16……カメラ、17……タッチパネル、18……センサー、19……バス、141……マーカーDB

Claims (5)

  1. カメラで撮影した画像を取得する取得部と、
    前記画像中のマーカーを認識する認識部と、
    前記カメラと前記マーカーの相対位置を推定する相対位置推定部と、
    前記相対位置推定部によって推定された前記マーカーについての複数の相対位置のばらつきが所定よりも小さい場合、前記マーカーの位置及び前記複数の相対位置を用いて前記カメラの位置を推定する位置推定部と、を備える情報処理装置。
  2. 前記位置推定部は、前記認識部が前記マーカーを認識した回数が所定の回数以上である場合、前記カメラの位置を推定する、請求項1に記載の情報処理装置。
  3. 前記位置推定部は、前記複数の相対位置を用いた時系列平滑化を行って前記カメラの位置を推定する、請求項に記載の情報処理装置。
  4. 前記位置推定部は、推定した前記カメラの位置が外れ値である場合に棄却する、請求項1乃至請求項のいずれか1項に記載の情報処理装置。
  5. コンピュータに、
    カメラで撮影した画像を取得する機能と、
    前記画像中のマーカーを認識する機能と、
    前記カメラと前記マーカーの相対位置を推定する機能と、
    推定された前記マーカーについての複数の相対位置のばらつきが所定よりも小さい場合、前記マーカーの位置及び前記複数の相対位置を用いて前記カメラの位置を推定する機能と、
    を実行させることか可能なプログラム。
JP2019173266A 2019-09-24 2019-09-24 情報処理装置 Active JP7404011B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019173266A JP7404011B2 (ja) 2019-09-24 2019-09-24 情報処理装置
US16/911,350 US11410329B2 (en) 2019-09-24 2020-06-24 Information processing device, method performed thereby, and non-transitory computer readable medium
EP20190149.3A EP3798984A1 (en) 2019-09-24 2020-08-07 Information processing device, method performed thereby, and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173266A JP7404011B2 (ja) 2019-09-24 2019-09-24 情報処理装置

Publications (2)

Publication Number Publication Date
JP2021051468A JP2021051468A (ja) 2021-04-01
JP7404011B2 true JP7404011B2 (ja) 2023-12-25

Family

ID=72147881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019173266A Active JP7404011B2 (ja) 2019-09-24 2019-09-24 情報処理装置

Country Status (3)

Country Link
US (1) US11410329B2 (ja)
EP (1) EP3798984A1 (ja)
JP (1) JP7404011B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022128087A (ja) * 2021-02-22 2022-09-01 株式会社東芝 計測システム及び計測プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288632A (ja) 2001-03-26 2002-10-04 Sony Corp ワークの基準マーク認識方法
JP2007303842A (ja) 2006-05-08 2007-11-22 Toyota Central Res & Dev Lab Inc 車両位置推定装置及び地図情報作成装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69831181T2 (de) * 1997-05-30 2006-05-18 British Broadcasting Corp. Positionsbestimmung
WO2005104033A1 (de) * 2004-04-26 2005-11-03 Siemens Aktiengesellschaft Verfahren zur bestimmung einer position eines markers in einem augmented-reality-system
JP2006234453A (ja) 2005-02-23 2006-09-07 Mitsubishi Heavy Ind Ltd 自己位置標定用ランドマーク位置の登録方法
JP4926817B2 (ja) * 2006-08-11 2012-05-09 キヤノン株式会社 指標配置情報計測装置および方法
KR20100086128A (ko) * 2009-01-22 2010-07-30 서경대학교 산학협력단 혼합 현실 상황 훈련 시스템
US9524436B2 (en) * 2011-12-06 2016-12-20 Microsoft Technology Licensing, Llc Augmented reality camera registration
JP6261016B2 (ja) * 2013-09-30 2018-01-17 国立研究開発法人産業技術総合研究所 マーカ画像処理システム
WO2015123774A1 (en) * 2014-02-18 2015-08-27 Sulon Technologies Inc. System and method for augmented reality and virtual reality applications
EP3146729A4 (en) * 2014-05-21 2018-04-11 Millennium Three Technologies Inc. Fiducial marker patterns, their automatic detection in images, and applications thereof
JP2018009836A (ja) * 2016-07-12 2018-01-18 セイコーエプソン株式会社 プログラム、頭部装着型表示装置、キャリブレーション方法
KR101892740B1 (ko) * 2016-10-11 2018-08-28 한국전자통신연구원 통합 이미지 마커 생성 방법 및 그 방법을 수행하는 시스템
EP3385912B1 (en) * 2017-04-06 2022-08-24 Hexagon Technology Center GmbH Near field manoeuvring for ar-devices using image tracking
US10692289B2 (en) * 2017-11-22 2020-06-23 Google Llc Positional recognition for augmented reality environment
CN108876854B (zh) * 2018-04-27 2022-03-08 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置、设备及存储介质
WO2020024909A1 (zh) * 2018-08-02 2020-02-06 广东虚拟现实科技有限公司 定位跟踪方法、终端设备及计算机可读取存储介质
US11380011B2 (en) * 2019-04-23 2022-07-05 Kreatar, Llc Marker-based positioning of simulated reality
GB2583535B (en) * 2019-05-03 2021-11-10 Sony Interactive Entertainment Inc Data processing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288632A (ja) 2001-03-26 2002-10-04 Sony Corp ワークの基準マーク認識方法
JP2007303842A (ja) 2006-05-08 2007-11-22 Toyota Central Res & Dev Lab Inc 車両位置推定装置及び地図情報作成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Monica Rubio,外4名,Jittering Reduction in Marker-Based Augmented Reality Systems,Lecture Notes in Computer Science,2006年05月,pp. 510-517

Also Published As

Publication number Publication date
EP3798984A1 (en) 2021-03-31
US11410329B2 (en) 2022-08-09
JP2021051468A (ja) 2021-04-01
US20210090286A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
CN110411441B (zh) 用于多模态映射和定位的系统和方法
US9953461B2 (en) Navigation system applying augmented reality
US10509983B2 (en) Operating device, operating system, operating method, and program therefor
WO2020037492A1 (en) Distance measuring method and device
US10247556B2 (en) Method for processing feature measurements in vision-aided inertial navigation
US8723987B2 (en) Uncertainty estimation of planar features
TW202013251A (zh) 在機器人設備上使用光流感測器進行vslam比例估計的系統和方法
WO2022193508A1 (zh) 位姿优化方法、装置、电子设备、计算机可读存储介质、计算机程序及程序产品
KR101444685B1 (ko) 영상기반 멀티센서 데이터를 이용한 차량의 위치자세 결정 방법 및 장치
CN113048980B (zh) 位姿优化方法、装置、电子设备及存储介质
JP6479296B2 (ja) 位置姿勢推定装置および位置姿勢推定方法
KR102559203B1 (ko) 포즈 정보를 출력하는 방법 및 장치
CN109141411B (zh) 定位方法、定位装置、移动机器人及存储介质
CN113610702B (zh) 一种建图方法、装置、电子设备及存储介质
JP7404011B2 (ja) 情報処理装置
CN111612851B (zh) 用于标定相机的方法、装置、设备以及存储介质
JP2023126399A (ja) 測定装置、測定方法およびプログラム
US20230079899A1 (en) Determination of an absolute initial position of a vehicle
KR102325121B1 (ko) 맵 정보과 영상 매칭을 통한 실시간 로봇 위치 예측 방법 및 로봇
CN107703954B (zh) 用于无人机的目标位置勘测方法、装置及无人机
KR102580912B1 (ko) 보행항법 알고리즘 검증을 위한 참조 데이터 셋 구축 장치 및 방법
US20200116482A1 (en) Data thinning device, surveying device, surveying system, and data thinning method
CN112400122A (zh) 定位目标对象的系统和方法
US20210090267A1 (en) Information processing system, information processing method, and information processing apparatus
US11321933B2 (en) Information processing apparatus configured to determine a location of a candidate for a marker for augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220909

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231213

R150 Certificate of patent or registration of utility model

Ref document number: 7404011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150