JP7114686B2 - 拡張現実装置及び位置決め方法 - Google Patents

拡張現実装置及び位置決め方法 Download PDF

Info

Publication number
JP7114686B2
JP7114686B2 JP2020215384A JP2020215384A JP7114686B2 JP 7114686 B2 JP7114686 B2 JP 7114686B2 JP 2020215384 A JP2020215384 A JP 2020215384A JP 2020215384 A JP2020215384 A JP 2020215384A JP 7114686 B2 JP7114686 B2 JP 7114686B2
Authority
JP
Japan
Prior art keywords
point
point cloud
read
obtaining
feature values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020215384A
Other languages
English (en)
Other versions
JP2021103168A (ja
Inventor
カイ-フン スー
ムー-ヘン リン
Original Assignee
エーディーエーティー テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エーディーエーティー テクノロジー カンパニー リミテッド filed Critical エーディーエーティー テクノロジー カンパニー リミテッド
Publication of JP2021103168A publication Critical patent/JP2021103168A/ja
Application granted granted Critical
Publication of JP7114686B2 publication Critical patent/JP7114686B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)

Description

本発明は、拡張現実装置又は汎用電気装置に適用可能な位置決め方法に関する。
計算要素と実空間との合わせたシーンに、空間的位置及び姿勢の認識が使用されている。一般的には、空間的位置及び姿勢の取得は、主に、慣性測定ユニットによって実施される。しかしながら、慣性測定ユニットは、長時期に使用されると、全体がドリフトして、位置情報が不足になる恐れがある。全地球測位システム(Global positioning information system;GPS)は、屋外現場で位置情報を取得するように用いられるが、屋内現場で信頼的ではない。GPSがない場合、自己位置推定とマッピングの同時実行(SLAM)によって、屋内現場における空間的位置及び姿勢を取得する。しかしながら、工業に適用される固定空間現場に対して、現場モデルの連続した更新は、余計であり計算資源が大量に消費されるが、人員が領域の間で絶えずに移動すれば、SLAMが更に地図データのエラーを引き起こしてしまう。
本公開内容の実施形態は、デプスセンサ及び慣性測定ユニットを含む電気装置用の位置決め方法であって、前記慣性測定ユニットから取得した信号に基づいて、前記電気装置の初期位置や初期方向を計算する工程と、データベースから環境点群を取得し、且つ前記初期位置及び前記初期方向に基づいて、前記環境点群から局所環境点群を取得する工程と、前記デプスセンサによって読込点群を取得する工程と、前記読込点群と前記局所環境点群とをマッチングして、前記電気装置の更新位置や更新方向を計算する工程と、を備える位置決め方法を提供する。
ある実施形態において、前記読込点群と前記局所環境点群とをマッチングすることは、下記の方程(1)を解くことを含み、
Figure 0007114686000001
方程(1)において、pは前記読込点群のi個目の点であり、qは前記局所環境点群のi個目の点であり、前記点qと前記点pとがマッチングし、wは前記点p及び前記点qに対応する重みであり、Rは平行移動行列であり、tは変位ベクトルであり、且つNは前記読込点群の点数である。
ある実施形態において、前記重みwは前記点qと(Rp+t)との間の距離と逆相関である。
ある実施形態において、前記点p及び前記点qの各々は、X座標、Y座標、Z座標及び法線ベクトルを含む。
ある実施形態において、前記位置決め方法は、前記読込点群から前記点p及びその複数の近傍点を取得する工程と、前記点p及び前記近傍点に対して主成分分析を実行して、複数の特徴値及び複数の主成分を取得し、且つ前記特徴値のうちの最小となる方に対応する前記主成分を前記点pの前記法線ベクトルとして設置する工程と、を更に備える。
ある実施形態において、前記点p及び前記点qの各々は、曲率因子を更に含み、且つ前記位置決め方法は、前記特徴値のうちの前記最小となる方を前記特徴値の合計で割って、前記曲率因子を計算する工程を更に備える。
一方、本公開内容の実施形態は、拡張現実装置であって、慣性測定ユニットと、デプスセンサと、複数の工程を実行するように配置されるプロセッサと、を含み、前記複数の工程は、前記慣性測定ユニットから取得した信号に基づいて、前記拡張現実装置の初期位置や初期方向を計算する工程と、データベースから環境点群を取得し、且つ前記初期位置及び前記初期方向に基づいて、前記環境点群から局所環境点群を取得する工程と、前記デプスセンサによって読込点群を取得する工程と、前記読込点群と前記局所環境点群とをマッチングして、前記電気装置の更新位置や更新方向を計算する工程と、を備える拡張現実装置を提供する。
上記装置及び方法において、慣性測定ユニットによって粗位置を確定した後で、点群レジストレーションによってこの位置を更新する。そのため、精確な位置を提供し、点群レジストレーションの計算を低減する。
下記添付図面を参照すると、下記実施形態についての詳細な記述を読むことで、本発明をより全面的に理解することができる。
一実施形態による拡張現実装置の適用シーンである。 一実施形態による拡張現実の模式的ブロック図である。 一実施形態による拡張現実装置の適用シーンの上面図である。 一実施形態による位置決め方法の流れ図である。 一実施形態による反復最近接点アルゴリズムの模式的流れ図である。 一実施形態による法線ベクトルの計算の模式図である。 一実施形態による位置決め方法の模式的流れ図である。
以下、添付図面を参照して、本発明の具体的な実施形態をより詳しく説明するが、説明される実施形態は本発明を制限するためのものではなく、且つ操作についての記述は達成手順を制限するためのものではない。なお、素子を再構築した構造による同一の機能を持つ如何なる装置も、本発明の範囲内に含まれる。また、添付図面は単に説明するためのものであり、且つ実際の寸法として描かれていない。
明細書において「第1の」、「第2の」、「第3の」等が使用される場合、同じ用語で記述するユニット又はデータを表すためのものであるが、特定の手順や順序に関わっていないことは、理解すべきである。
本公開内容の位置決め方法は、点群、慣性測定ユニット(inertial measurement unit;IMU)及び点群レジストレーション(point cloud registration;PCR)の技術を採用する。デプスセンサによって空間の点群を抽出して、且つ空間での位置や方向を確定するように、点群とIMU及びPCRとを合わせる。工業的適用において、位置決め技術は、コンピュータプログラムと現実環境との間の仮想及び真の関係との繋がりに用いられることができる。一方、拡張現実(AR)装置の対象設計は、人員が特定な場所でのタスクを完成するようにガイドする。一般的には、単一のIMUを有する空間位置決めの欠点は、位置を精確に測定できず、且つ長時期に使用されると誤差を累積することである。提出される方法点群を走査することで、IMUを介して既知の環境における点群の粗位置を提供し、またPCRアルゴリズムを介して走査された点群と環境の3Dモデルの点群をマッチングさせて精確な位置や方向を計算する。そのため、精確な空間的位置情報を得、ARの複合現実の設計の信頼性を向上させることができる。
図1は、一実施形態による拡張現実装置の適用シーンである。図1の実施形態において、AR装置100は、スマートグラスであるが、マスク、スマートフォン、タブレット等であってもよい。AR装置100の外観は、本公開内容に制限されない。ユーザーは、AR装置100を装着して、屋内(例えば、1つ又は複数の工作機械110の設けられた工業環境)で移動することができる。工作機械110の点群が既知されるため、AR装置100は、AR装置100の位置を取得するように、工作機械110の点群を識別することができる。
図2は、一実施形態による拡張現実装置の模式的ブロック図である。図2を参照すると、AR装置100は、プロセッサ210と、慣性測定ユニット220と、デプスセンサ230と、通信モジュール240と、ディスプレイ250と、を備える。プロセッサ210は、中央処理ユニット、マイクロプロセッサ、マイクロコントローラ、デジタルシグナルプロセッサ、画像処理チップ、特定用途向け集積回路等であってよい。慣性測定ユニット220は、加速度センサ、角速度センサ、磁力計等を含んでよい。デプスセンサ230は、赤外線放射体、赤外線センサ、デュアルカメラ、構造化光感知装置又は被写界深度を検出可能な如何なる装置を含んでよい。通信モジュール240は、インターネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、セルラネットワーク、近場通信(NFC)、赤外線(IR)、ブルートゥース(登録商標)、WiFi(登録商標)のような通信手段を提供可能な回路であってよい。ディスプレイ250は、有機ダイオード(OLED)ディスプレイ、液晶ディスプレイ又は如何なる好適なディスプレイを含んでもよい。便宜上、図2にAR装置100の全ての部材を示していない。
図3は、一実施形態による拡張現実装置の適用シーンの上面図である。図4は、一実施形態による位置決め方法の流れ図である。図3及び図4の実施形態において、AR装置100は、屋内環境300を移動する。下記方法の工程の各々は、AR装置100のプロセッサ210、又はAR装置100から所望のデータを受信した後で計算結果をAR装置100に送信するクラウドサーバ(未図示)によって実行される。
工程420において、慣性測定ユニット220から取得した信号に基づいて、初期位置や初期方向301を計算する。例えば、慣性測定ユニット220により測定された加速度値を積分して速度値を取得し、この速度値を積分して初期位置を取得し、且つ角加速度及び磁力の方向に基づいて初期方向301を取得する。
工程430において、行列
Figure 0007114686000002
として表される点群(点集と呼ばれてもよい)を取得するように、デプスセンサ230によって点の走査を実行し、この行列は、複数の点を含み、i個目の点がベクトルpとして表され、M、N及びiは正整数である。Nは行列Pにおける点の数である。Mは各々のベクトルpの長さである。詳しくは、デプスセンサ230は、環境対象の各々の点とAR装置100との間の距離を取得するように、環境対象(例えば、工作機械110)を走査する。距離及びAR装置100の位置や方向に基づいて点の座標を計算する。そのため、各々のベクトルpは、少なくともX座標、Y座標及びZ座標を含む。ある実施形態において、各々のベクトルpは、法線ベクトル及び曲率因子(下記で説明する)を更に含む。ベクトルpを例として概して説明する。デプスセンサ230により生成される点群は読込点群と呼ばれる。
工程440において、データベース450から環境点群を取得する。環境点群は、屋内環境300における1つ又は複数の工作機械110の点群を含む。環境点群は、行列
Figure 0007114686000003
として表される。同様に、環境点群は、複数の点を含み、i個目の点はベクトルqとして表される。環境点群を予め作成してよい。例えば、3Dファイルを点群に変換してよい。3Dファイルは、様々なソフトウェア(例えばAutocad、Solidwork又はCatia)により生成されてよい。実施形態において、デプスセンサ230は、ステッチング、ノイズフィルタリング、シャープニング、グリッド化等の処理によって、3Dファイル無しの環境点群を生成してよい。ある実施形態において、環境点群は、別のコンピュータシステムによって提供される。
工程440において、初期推測を更に実行する。環境点群は、屋内環境における全ての対象の点を含み、且つ対象の何れも読込点群にマッチングすると、冗長性計算が存在する。ある実施形態において、デプスセンサ230は、初期位置や初期方向を有する視野310を計算するための視角を有する。環境点群のみから視野310における点を局所環境点群として抽出し、便宜上、この局所環境点群は相変わらずQとして表される。計算を低減するように、局所環境点群と読込点群とをマッチングさせる。ある実施形態において、読込点群と局所環境点群との間に平行移動や変位の変換が存在する。この変換は、下記の方程(1)として書かれる。
Figure 0007114686000004
Rは、寸法M×Mの平行移動行列であり、tは長さMの変位ベクトルである。ある実施形態において、工程420において計算された初期方向及び初期位置によって平行移動行列R及び変位ベクトルtを初期化する。実施形態において、平行移動行列R及び変位ベクトルtはランダムに初期化される。
工程460において、点群レジストレーション(PCR)アルゴリズムを実行する。実施形態において、反復最近接点(ICP)アルゴリズムを採用するが、他の実施形態において、他のレジストレーションアルゴリズムを採用してもよい。図5は、一実施形態によるICPアルゴリズムの模式的流れ図である。図5を参照すると、工程510において、点pは(Rp+t)に変換される。
工程520において、点qを快速に検索するように、局所環境点群Qに基づいてKD木を生成する。他の実施形態において、BSP木、KDB木、R木、R+木、CELL木、四分木及び八分木のような他のデータ構造を採用してよい。
工程530において、読込点群Pと局所環境点群Qとをマッチングし、つまり、各々の点pの最近接点qを検索して一対の(p,q)を形成する。注意すべきなのは、最近接点を検索する場合、点qと変換された点(Rp+t)との間の距離を計算する。点qと(Rp+t)との間の距離は、ユークリッド距離(つまり、差分ベクトルのL2-ノルム)又は他の好適な距離であってよい。
工程540において、各対の(p,q)に対して重みwを計算する。重みwは点qと(Rp+t)との間の距離と逆相関し、且つこの距離が本明細書で実数dとして表される。例えば、実数dが閾値よりも大きくなると、重みwを0として設置する。実数dが閾値以下になると、重みwを実数dの逆関数又は減少関数として設置する。減少関数は、e-dのようなものであってよい。重みwは、点群の外れ値(例えば、背景)を除去することに用いられる。このように、背景がマッチング結果に影響を与えることはない。
工程550において、行列R及びベクトルtを計算するように、最適化アルゴリズムを実行し、これは下記の方程(2)として書かれる。
Figure 0007114686000005
上記最適化アルゴリズムは、公式又は本公開内容で制限されない検索方法(例えば、遺伝的アルゴリズム)によって解かれることができる。例えば、公式は、下記の方程(3)~(5)を含んでよい。
Figure 0007114686000006
Figure 0007114686000007
Figure 0007114686000008
次に、下記の方程(6)に基づいて行列Sを生成する。行列Sに対して、方程(7)で書かれるように、特異値分解(SVD)を実行する。行列U及びVに基づいて下記の方程(8)のように平行移動行列Rを計算する。
Figure 0007114686000009
Figure 0007114686000010
Figure 0007114686000011
工程560において、更新が収束したかを確定する。例えば、平行移動行列R及び変位ベクトルtの変化量が所定値よりも小さくなると、更新が収束したと確定する。ある実施形態において、特定回数の反復が実行されると、更新が収束したと確定する。収束されていないと、工程510に戻って、新しい平行移動行列R及び新しい変位ベクトルtに基づいて点pを変換する。
図3及び図4を参照すると、工程470において、更新位置や更新方向を計算する。具体的に、読込点群と局所環境点群とがマッチングした後で、あるマッチングされた点qが工作機械110に属すると、工作機械110がAR装置100の視野310内にあることを意味する。また、この対の(p,q)に基づいてAR装置100の工作機械110に対する距離や方向を取得することができるため、既知の工作機械110の位置により、更新位置及びAR装置100の方向の更新方向を計算することができる。工程420において計算された初期方向及び初期位置は、更新位置や更新方向により置換される。ある実施形態において、更に、更新位置や更新方向を拡張現実モジュール410に送信し、ディスプレイ250に何れの情報を表示するかを確定するように、この拡張現実モジュールはプロセッサ210により実行される。
ある実施形態において、点群の各々の点について、付加法線ベクトル及び曲率因子を計算する。そのため、点p及び点qの各々も長さ7のベクトル(x,y,z,u,v,w,c)として表されることができる。(x,y,z)の要素はX座標、Y座標及びZ座標である。(u,v,w)の要素は法線ベクトルを構成し、且つcは曲率因子である。図6は、一実施形態による法線ベクトルの計算の模式図である。図6を参照すると、点p(x,y,z)を例として、小さい領域における点pの近傍点610(又は予定数の近傍点)を取得する。点p及び近傍点610に対して主成分分析(PCA)アルゴリズムを実行して、特徴値λ、λ及びλ及び主成分を取得する。特徴値λ、λ及びλは降順で配列される。当業者であればPCAアルゴリズムを知るべきであるため、それについて詳しく説明しない。各々の特徴値は、主成分の1つに対応する。各々の主成分は長さ3のベクトルである。最大特徴値λに対応する主成分は、点p及び近傍点610を最大に表す基礎である。点p及び近傍点610がほぼ2つのベースラインにより跨がれる二次元表面にあるため、第3のベースラインはこの表面の法線ベクトルを表すべきである。言い換えれば、最小特徴値λに対応する主成分は、点pの法線ベクトル(u,v,w)として設置される。なお、表面が平坦であれば、特徴値λは比較的小さいべきであるが、表面が湾曲すると、特徴値λは比較的大きいべきである。そのため、特徴値λは、曲率因子cの計算に用いられることができる。ある実施形態において、下記の方程(9)で書かれるように、最小特徴値を3つの特徴値の合計で割って、曲率因子cを計算する。
Figure 0007114686000012
読込点群及び局所環境点群の各々の点に対して上記操作を実行してよく、且つ最初のベクトル(x,y,z)はベクトル(x,y,z,u,v,w,c)に置換される。実施形態において、法線ベクトル及び曲率因子がマッチングの改善される対(p,q)のICPアルゴリズムのマッチングに加えられるため、各々の点についてより詳しく説明する。
図7は、一実施形態による位置決め方法の模式的流れ図である。図7を参照すると、工程710において、慣性測定ユニットから取得した信号に基づいて、電気装置の初期位置や初期方向を計算する。工程720において、データベースから環境点群を取得し、且つ初期位置や初期方向に基づいて環境点群から局所環境点群を取得する。工程730において、デプスセンサによって読込点群を取得する。工程740において、読込点群と局所環境点群とをマッチングして、電気装置の更新位置や更新方向を計算する。しかしながら、図7における全ての工程については、上記で詳しく説明されるため、繰り返して説明しない。注意すべきなのは、図7における工程は、プログラムコード又は回路として達成されることができるが、且つ本公開内容はこれに限定されない。また、図7における方法は、AR装置100又は例えばスマートフォン、タブレット又は如何なる好適なウェアラブル装置のような汎用電気装置に適用されることができる。電気装置は、少なくともプロセッサ、デプスセンサ及び慣性測定ユニットを含む。
上記位置決め方法及びAR装置において、点群情報、IMU及びPCR技術を組み合わせることで、SLAM及びIMUが屋内で位置及び配向情報を精確に提供できないという課題が解決される。更に、IMUの経時的なエラーの累積という課題も解決される。この位置決め方法は、例えば工場エリア又は屋内空間のような、3Dモデルを有する如何なる屋内環境又はCADソフトウェアにより設計される工作機械を有する屋内場所に適用されることができる。
本発明のある実施形態を参照して本発明を相当詳しく記述したが、他の実施形態も可能である。そのため、添付の特許請求の範囲の精神や範囲は、本明細書に含まれる実施形態についての記述に限定されない。当業者であれは、本発明の範囲や精神から逸脱しない限り、本発明の構造に様々な修正や変化を加えてもよいことは明らかである。前記内容に鑑みて、本発明は、添付の特許請求の範囲の範囲内に含まれるものであれば、本発明の修正や変化を包含することを意図する。
100 AR装置
110 工作機械
210 プロセッサ
220 慣性測定ユニット
230 デプスセンサ
240 通信モジュール
250 ディスプレイ
300 屋内環境
310 視野
301 初期方向
410 拡張現実モジュール
420、430、440、450、460、470、510、520、530、540、550、560、710、720、730、740 工程
610 近傍点

Claims (2)

  1. デプスセンサ及び慣性測定ユニットを含む電気装置用の位置決め方法であって、
    前記慣性測定ユニットから取得した信号に基づいて、前記電気装置の初期位置や初期方向を計算する工程と、
    データベースから環境点群を取得し、且つ前記初期位置及び前記初期方向に基づいて、前記環境点群から局所環境点群を取得する工程と、
    前記デプスセンサによって読込点群を取得する工程と、
    前記読込点群と前記局所環境点群とをマッチングして、前記電気装置の更新位置や更新方向を計算する工程と、
    を備え
    前記読込点群と前記局所環境点群とをマッチングすることは、下記の方程(1)を解くことを含み、
    Figure 0007114686000013

    は前記読込点群のi個目の点であり、q は前記局所環境点群のi個目の点であり、前記点q と前記点p とがマッチングし、w は前記点p 及び前記点q に対応する重みであり、Rは平行移動行列であり、tは変位ベクトルであり、且つNは前記読込点群の点数であり、
    前記重みw は前記点q と(Rp +t)との間の距離と逆相関であり、
    前記点p 及び前記点q の各々は、X座標、Y座標、Z座標、法線ベクトル及び曲率因子を含み、
    前記読込点群から前記点p 及びその複数の近傍点を取得する工程と、
    前記点p 及び前記近傍点に対して主成分分析を実行して、複数の特徴値及び複数の主成分を取得し、且つ前記特徴値のうちの最小となる方に対応する前記主成分を前記点p の前記法線ベクトルとして設置する工程と、
    前記特徴値のうちの前記最小となる方を前記特徴値の合計で割って、前記曲率因子を計算する工程を更に備える位置決め方法。
  2. 拡張現実装置であって、
    慣性測定ユニットと、
    デプスセンサと、
    複数の工程を実行するように配置されるプロセッサと、
    を含み、
    前記複数の工程は、
    前記慣性測定ユニットから取得した信号に基づいて、前記拡張現実装置の初期位置や初期方向を計算する工程と、
    データベースから環境点群を取得し、且つ前記初期位置及び前記初期方向に基づいて、前記環境点群から局所環境点群を取得する工程と、
    前記デプスセンサによって読込点群を取得する工程と、
    前記読込点群と前記局所環境点群とをマッチングして、電気装置の更新位置や更新
    方向を計算する工程と、
    を備え、
    前記読込点群と前記局所環境点群とをマッチングすることは、下記の方程(1)を解くことを含み、
    Figure 0007114686000014

    は前記読込点群のi個目の点であり、q は前記局所環境点群のi個目の点であり、前記点q と前記点p とがマッチングし、w は前記点p 及び前記点q に対応する重みであり、Rは平行移動行列であり、tは変位ベクトルであり、Nは前記読込点群の点数であり、且つ前記重みw は前記点q と(Rp +t)との間の距離と逆相関であり、
    前記点p 及び前記点q の各々は、X座標、Y座標、Z座標、法線ベクトル及び曲率因子を含み、且つ前記複数の工程は、
    前記読込点群から前記点p 及びその複数の近傍点を取得する工程と、
    前記点p 及び前記近傍点に対して主成分分析を実行して、複数の特徴値及び複数の主成分を取得し、且つ前記特徴値のうちの最小となる方に対応する前記主成分を前記点p の前記法線ベクトルとして設置する工程と、
    前記特徴値のうちの前記最小となる方を前記特徴値の合計で割って、前記曲率因子を計算する工程を更に含む、拡張現実装置。
JP2020215384A 2019-12-25 2020-12-24 拡張現実装置及び位置決め方法 Active JP7114686B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW108147692 2019-12-25
TW108147692A TWI722738B (zh) 2019-12-25 2019-12-25 擴增實境裝置與定位方法

Publications (2)

Publication Number Publication Date
JP2021103168A JP2021103168A (ja) 2021-07-15
JP7114686B2 true JP7114686B2 (ja) 2022-08-08

Family

ID=71616102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020215384A Active JP7114686B2 (ja) 2019-12-25 2020-12-24 拡張現実装置及び位置決め方法

Country Status (6)

Country Link
US (1) US11158081B2 (ja)
JP (1) JP7114686B2 (ja)
KR (1) KR102585821B1 (ja)
GB (1) GB2590745B (ja)
NL (1) NL2025743B1 (ja)
TW (1) TWI722738B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI795764B (zh) * 2021-04-22 2023-03-11 政威資訊顧問有限公司 基於擴增實境視景的呈現設施物件定位方法及伺服端
CN113345023B (zh) * 2021-07-05 2024-03-01 北京京东乾石科技有限公司 箱体的定位方法、装置、介质和电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2961264B1 (ja) 1998-09-21 1999-10-12 工業技術院長 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2015184056A (ja) 2014-03-20 2015-10-22 株式会社東芝 計測装置、方法及びプログラム
JP2017191351A (ja) 2016-04-11 2017-10-19 株式会社日立製作所 作業支援システム及び方法
JP2018126862A (ja) 2018-05-14 2018-08-16 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2019101694A (ja) 2017-11-30 2019-06-24 大成建設株式会社 位置特定装置、位置特定プログラム及び位置特定方法、並びに、撮影画像登録装置、撮影画像登録プログラム及び撮影画像登録方法
WO2019155719A1 (ja) 2018-02-09 2019-08-15 ソニー株式会社 キャリブレーション装置とキャリブレーション方法およびプログラム
JP2019168976A (ja) 2018-03-23 2019-10-03 株式会社ジオ技術研究所 3次元モデル生成装置
US20190323844A1 (en) 2018-04-18 2019-10-24 Faraday&Future Inc. System and method for lidar-based vehicular localization relating to autonomous navigation

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
TW201447235A (zh) * 2011-11-22 2014-12-16 Core Wireless Licensing Sarl 用於決定位置偏移資訊之方法、設備和電腦可讀儲存媒體
TWI475191B (zh) * 2012-04-03 2015-03-01 Wistron Corp 用於實景導航之定位方法、定位系統及電腦可讀取儲存媒體
CN103047981B (zh) * 2012-12-22 2017-03-15 江苏车视杰电子有限公司 电子装置及其导航定位方法和系统
KR102516124B1 (ko) * 2013-03-11 2023-03-29 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9582516B2 (en) * 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
EP3094806B1 (en) * 2014-01-14 2019-07-24 Sandvik Mining and Construction Oy Mine vehicle and method of initiating mine work task
US10180734B2 (en) * 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
TWI616829B (zh) * 2015-08-21 2018-03-01 緯創資通股份有限公司 物品定位追蹤的方法及其系統與電腦可讀取記錄媒體
US9984499B1 (en) * 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US9918204B1 (en) * 2015-12-08 2018-03-13 Bentley Systems, Incorporated High accuracy indoor tracking
US11297346B2 (en) * 2016-05-28 2022-04-05 Microsoft Technology Licensing, Llc Motion-compensated compression of dynamic voxelized point clouds
TWI597513B (zh) * 2016-06-02 2017-09-01 財團法人工業技術研究院 定位系統、車載定位裝置及其定位方法
US9906885B2 (en) * 2016-07-15 2018-02-27 Qualcomm Incorporated Methods and systems for inserting virtual sounds into an environment
US11037369B2 (en) * 2017-05-01 2021-06-15 Zimmer Us, Inc. Virtual or augmented reality rehabilitation
US10762707B2 (en) * 2017-11-17 2020-09-01 Thales Canada, Inc. Point cloud rail asset data extraction
KR102098929B1 (ko) * 2018-02-26 2020-04-08 성균관대학교산학협력단 수술용 내비게이션의 표면 정합 방법 및 장치
TWM598411U (zh) * 2019-12-25 2020-07-11 亞達科技股份有限公司 擴增實境裝置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2961264B1 (ja) 1998-09-21 1999-10-12 工業技術院長 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2015184056A (ja) 2014-03-20 2015-10-22 株式会社東芝 計測装置、方法及びプログラム
JP2017191351A (ja) 2016-04-11 2017-10-19 株式会社日立製作所 作業支援システム及び方法
JP2019101694A (ja) 2017-11-30 2019-06-24 大成建設株式会社 位置特定装置、位置特定プログラム及び位置特定方法、並びに、撮影画像登録装置、撮影画像登録プログラム及び撮影画像登録方法
WO2019155719A1 (ja) 2018-02-09 2019-08-15 ソニー株式会社 キャリブレーション装置とキャリブレーション方法およびプログラム
JP2019168976A (ja) 2018-03-23 2019-10-03 株式会社ジオ技術研究所 3次元モデル生成装置
US20190323844A1 (en) 2018-04-18 2019-10-24 Faraday&Future Inc. System and method for lidar-based vehicular localization relating to autonomous navigation
JP2018126862A (ja) 2018-05-14 2018-08-16 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Also Published As

Publication number Publication date
TWI722738B (zh) 2021-03-21
GB202008424D0 (en) 2020-07-22
US20210201525A1 (en) 2021-07-01
KR102585821B1 (ko) 2023-10-10
GB2590745A (en) 2021-07-07
GB2590745B (en) 2022-01-05
KR20210083198A (ko) 2021-07-06
TW202124917A (zh) 2021-07-01
US11158081B2 (en) 2021-10-26
NL2025743B1 (en) 2021-09-09
JP2021103168A (ja) 2021-07-15

Similar Documents

Publication Publication Date Title
US20200273256A1 (en) Accurate positioning of augmented reality content
Svärm et al. City-scale localization for cameras with known vertical direction
US10636168B2 (en) Image processing apparatus, method, and program
JP6255085B2 (ja) 位置特定システムおよび位置特定方法
JP5920352B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5987823B2 (ja) 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム
KR100855657B1 (ko) 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법
US10451403B2 (en) Structure-based camera pose estimation system
CN113048980B (zh) 位姿优化方法、装置、电子设备及存储介质
JP7131994B2 (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
CN105103089B (zh) 用于基于视频输入生成准确传感器校正的系统和方法
JP2009252112A (ja) 画像処理装置、画像処理方法
US9858669B2 (en) Optimized camera pose estimation system
JP7114686B2 (ja) 拡張現実装置及び位置決め方法
CN111459269B (zh) 一种增强现实显示方法、系统及计算机可读存储介质
CN104848861A (zh) 一种基于图像消失点识别技术的移动设备姿态测量方法
TW202238449A (zh) 室內定位系統及室內定位方法
Masiero et al. Toward the use of smartphones for mobile mapping
Viejo et al. A robust and fast method for 6DoF motion estimation from generalized 3D data
Briskin et al. Estimating pose and motion using bundle adjustment and digital elevation model constraints
TWM598411U (zh) 擴增實境裝置
Walvoord et al. Geoaccurate three-dimensional reconstruction via image-based geometry
Qian Weighted optimal linear attitude and translation estimator: Theory and application
Liu et al. Absolute orientation and localization estimation from an omnidirectional image
Grant Cloud to cloud registration for 3D point data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220727

R150 Certificate of patent or registration of utility model

Ref document number: 7114686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150