JP2023156279A - 建物情報モデルの仮想画像の表示 - Google Patents

建物情報モデルの仮想画像の表示 Download PDF

Info

Publication number
JP2023156279A
JP2023156279A JP2023113061A JP2023113061A JP2023156279A JP 2023156279 A JP2023156279 A JP 2023156279A JP 2023113061 A JP2023113061 A JP 2023113061A JP 2023113061 A JP2023113061 A JP 2023113061A JP 2023156279 A JP2023156279 A JP 2023156279A
Authority
JP
Japan
Prior art keywords
tracking
headset
data
display
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023113061A
Other languages
English (en)
Inventor
ジョン ミッチェル,デービッド
John Mitchell David
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XYZ Reality Ltd
Original Assignee
XYZ Reality Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XYZ Reality Ltd filed Critical XYZ Reality Ltd
Publication of JP2023156279A publication Critical patent/JP2023156279A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

【課題】実行されるタスクまたは構築されるオブジェクトの仮想画像を、建設現場のその正しい位置及び向きで十分な精度で表示できるヘッドセットを提供する。【解決手段】建設現場の外因性現場座標系に位置付けられ、方向付けられた建物情報モデル(BIM)の仮想画像をユーザに表示するためのヘッドセットであって、ユーザが着用し、その外面に分布された複数のセンサ602a~602nを有する安全帽600と、安全帽に取り付けられた安全ゴーグル620と、前記センサに対して固定されたユーザの視野内の使用中位置を有する拡張現実眼鏡700を含む拡張現実ディスプレイシステムと、ヘッドセット追跡データ及び外因性座標系で定義された建物情報モデルを表すモデルデータを受信し、ユーザがディスプレイで見るために拡張現実ディスプレイシステムに画像データを送信する電子制御システムと、を備える。【選択図】図12

Description

本発明は、建物情報モデル(BIM)の仮想画像の表示に関する。特に、排他的ではな
いが、本発明は、拡張現実ディスプレイデバイスを使用して、実行されるタスクまたは構
築されるオブジェクトの仮想画像を、建設現場のその正しい位置および向きで十分な精度
で表示できるようにすることに関し、それは、例えば所与の建設タスクをどこで実行すべ
きかを決定することによって建設現場の従来のセットアウトに代わるものとして使用され
ることができる。本発明の実施形態は、位置追跡システム(光学「インサイドアウト」位
置追跡システムなど)を使用して、少なくとも約5mmの精度で拡張現実ヘッドマウント
ディスプレイ(HMD)の位置を特定し得る。本発明は、追跡システムから受信した追跡
データに現実世界のセットアウトデータを関連付けるための機器、そのような機器の動作
を較正および制御するためのコンピュータソフトウェア、ならびに現実世界座標で仮想モ
デルを表示するための拡張現実HMDを提供する。本発明は、建設業者および他者が拡張
現実HMDを使用して、セットアウトおよび/または検証技術者に頼る必要なく、3mm
の精度/建設公差内で建設タスクを開始、完了および検証できるようにすることを目的と
する。
建設現場での構造物の立設または建物の建設は、長いプロセスである。このプロセスは
次のように要約できる。最初に、建物情報モデル(BIM)として既知である3次元モデ
ルが、設計者または建築士によって作成される。BIMモデルは典型的には、現実世界座
標で定義される。BIMモデルがそして、最も一般的には2次元図面の形式で、または場
合によってはコンピューティングデバイス上の3Dモデルとして建設現場に送られる。技
術者は、従来のステークアウト/セットアウトデバイスを使用して、現場の現実世界座標
の既知の場所に制御点を確立し、2D図面またはBIMモデルにおける各構造物の建設予
定場所をマークアウトするための参照として制御点を使用する。建設業者はそして、技術
者により作られたマーク(「セットアウトマーク」)に合わせて図面および/またはBI
Mモデルを使用して、正しい位置に図面またはモデルに従った構造物を立設する。最後に
、技術者は構造物または実行されたタスクを検証する必要がある。これは、3Dレーザス
キャナを使用してポイントクラウドをキャプチャすることにより行われることが可能であ
り、ポイントクラウドからは、「竣工」構造物の3Dモデルを自動的に導出することがで
きる。「竣工」モデルはそして、元のBIMモデルと比較される。このプロセスには最大
2週間かかる可能性があり、その後、許容範囲外であることが判明する項目があるかを確
認する必要があり、ペナルティが発生し得るか、または、やり直しする必要がある。
従来、建設現場は、例えばベンチマークとして建設現場またはその近くの既知の場所の
点に関して建設現場の制御点を位置決めするよう、トータルステーションまたはTST(
トータルステーションセオドライト)を使用して経験豊富な現場技術者によってセットア
ウトされている。既知の場所のこのような点の現実世界位置は、例えば、陸地測量部また
はWGS84基準から知られ得る。その位置が正確に知られている場合、自然または人工
の地理的特徴を使用して制御点の位置を特定し得る。制御点はそして、既知の場所のうち
の2つ以上の点から三角測量することにより、トータルステーションを使用して建設現場
に配置できる。
建設現場で実行される各タスクは、このように正確にセットアウトされなければならな
い。典型的には、作業の連続した段階で一時的なマーカは消去され得るため、プロジェク
ト中にセットアウトを数回、行う必要がある。
さらに、建設現場でタスクが完了すると、タスクを検証すること/それが正しい場所で
行われたことを確認することが一般に必要であり、この目的のために、現場技術者は、セ
オドライトを使用して制御点を参照してタスクが実行された場所を確認する必要がある。
建設プロジェクト中にセットアウトが必要になるたびに、現場技術者が建設現場に立ち
会うのを待つと、遅延がもたらされる。実行すべき建設タスクの位置を特定する必要があ
るたびに、現場技術者に頼る必要なく構造物の立設を開始できることが望ましいであろう
建設現場をセットアウトする既知の方法の別の欠点は、作業員が建設図面に従ってその
正しい場所でタスクを実行できるように好適な位置に基準点およびマーカが確立されてい
るにもかかわらず、作業員が建設図面を解釈して、実行すべきタスクの詳細を決定し、基
準点または墨出し部の間を補間することが依然として必要であることである。実際には、
これにより、建設図面と実行されるタスクとの間に不一致が生じることがよくある。
既知の方法のさらに別の欠点は、制御点、または既知の場所の点に関連してそれら自身
の位置を特定された他の基準点に関して建設現場に基準点および墨出し部がしばしば配置
されることである。新しい基準点または墨出し部が以前の基準点または建設点に対して配
置されるたびに、位置決め誤差が拡大される。
既知の方法のさらに別の欠点は、検証に使用される今日のセオドライトでは検証情報を
請負業者に提供するのに最大2週間かかる可能性があることである。
これらの欠点は、重大な波及効果をもたらす可能性がある。セットアウトを間違って完
了した場合、またはセットアウトマークの誤った解釈に基づいて構造物が誤って立設され
た場合、次の業務請負業者はミスの上に建設を行い、したがって、エラーを悪化させる。
典型的には1~2週間である検証リードタイムを考えると、複数の請負業者がプロジェク
トでエラーを悪化させる可能性がある。これにより、しばしば請負業者がプロジェクトを
予定通りに提供できず、予算内でも、好適な仕様に従ってもプロジェクトを提供できなく
なる。
多くの国では、建設作業員は、建設現場での作業中に、落下物、他のオブジェクトとの
衝突、破片、雨、および感電による怪我から自身の頭部を保護するために、建設ヘルメッ
ト(または安全帽)を着用する必要がある。英国では例えば、1992年の個人用保護具
(PPE)規則において、安全帽がPPEの構成要素であり、法律により建設現場または
危険環境で働くすべての人が安全帽を着用することが義務付けられている。
安全帽は一般に、適用され得る安全基準に合わせて作られている。1997年に米国国
家規格協会は、CSA Z94.1規格に調和した安全帽についての性能Z89.1規格
を改訂した。これらの規格への準拠は必須ではないが、ほとんどのメーカが従っている。
安全帽の設計および構造は、当業者に周知であり、本明細書で詳細に説明する必要はな
い。安全帽の内側のサスペンションバンドは、安全帽の重量と任意の衝撃の力とを頭の上
部に分散させ、安全帽には、バイザ、追加シェード用の幅広つばアタッチメント、イヤー
プロテクタ、後部視界を広げるためのミラー、ヘッドランプまたはフラッシュライトの取
り付け部、着用者が身を乗り出している場合にヘルメットが脱落しないようにするあごひ
も、頭の側面を保温する断熱サイドパッド、ならびに/または、着色作業員識別用および
/もしくは高視認性夜間再帰反射用のつば周りに伸ばされるバンドを取り付け得る。
建設現場での安全帽が広くいきわたっている事を考えると、建設現場で実行される作業
を実施または支援するための電子機器を担持して、安全帽が当技術分野で使用されている
ことは驚くことではない。
例えば、US7592911B1(Hudgensら)には、現場の人員が着用する安
全帽に含まれる電子回路を使用して建設現場において個人の活動を追跡することが開示さ
れている。US7592911B1の1つの実施形態によれば、建設現場での活動は、建
設現場にいる人員が着用する1つ以上の安全帽の一部として形成される電子回路から直接
的または間接的に受信する個人情報を処理することにより監視される。個人情報は、人員
の個々人と一意に関連付けられる。電子回路から受信した個人情報および人員の場所に基
づいて、1つ以上のメッセージが生成される。例えば、メッセージは、建設現場の許可さ
れていないエリアに入った特定の人員に警告し得る。任意選択的に、人員の活動を定期的
に監視および報告し得る。
カリフォルニア州ロサンゼルスのDaqri,LLCから入手できる「スマートヘルメ
ット」は、視覚的指示、リアルタイムアラート、および3Dマッピングを含む拡張現実お
よび/またはマルチメディア情報を産業労働者に表示するための拡張現実ディスプレイを
安全帽に組み込んでいる(例えば、http://web.archive.org/w
eb/20170606162951/https://daqri.com/prod
ucts/smart-helmet/を参照)。
拡張現実(AR)は、音、ビデオ、グラフィックス、またはGPSデータなどのコンピ
ュータ生成感覚入力によってその要素が拡張された、物理的な現実世界環境の、ライブの
直接的または間接的なビューである。ARアプリケーションにより、ユーザは、ビューイ
ングデバイスのカメラでキャプチャされた物理オブジェクトの画像にオーバーレイされた
3次元仮想オブジェクトの形態などの情報を体験できる。仮想オブジェクトは、ユーザの
目と整列された「仮想カメラ」によって投影されているかのようにユーザに表示される。
他の拡張現実アプリケーションにより、ユーザは、現実物理世界の任意のオブジェクトの
ビューまたは画像の上にオーバーレイされた追加情報の視覚化を体験できる。
WO2015/102834A1(Daqri,LLC)は、拡張現実処理をオフロー
ドするシステムおよび方法を開示している。ユーザのビューイングデバイスの外部にある
センサは、ビューイングデバイスの位置および向きを追跡する。ビューイングデバイスは
、スマートフォン、タブレットコンピュータ、ウェアラブルコンピューティングデバイス
(例えば時計または眼鏡)などのディスプレイを伴うコンピューティングデバイスであり
得る。コンピューティングデバイスは、携帯式であり得、またはユーザの頭部に取り外し
可能に取り付けられ得る。位置および向きは、ユーザに対してローカルな物理環境の事前
定義参照を基準にして定義される。サーバは、追跡プロセスおよび拡張現実レンダリング
プロセスのうちの少なくとも1つをオフロードする要求をビューイングデバイスから受信
する。拡張現実レンダリングプロセスは、拡張現実データベースに基づく。サーバは、要
求とビューイングデバイスの位置および向きとに基づいて、オフロードされた処理済みデ
ータを生成する。オフロードされた処理済みデータは、ビューイングデバイスにストリー
ミングされる。オフロードされた処理済みデータの視覚化は、ビューイングデバイスで生
成される。
US2015/0235474A1(Mullins)によると、測量アプリケーショ
ンは、オブジェクトの3次元モデルに関連付けられたコンポーネントの測量を生成する。
測量アプリケーションは、オブジェクトの近くにあるウェアラブルデバイスからビデオフ
ィード、場所情報、および向き情報を受信する。オブジェクトの3次元モデルは、ウェア
ラブルデバイスから受信したビデオフィード、センサデータ、場所情報、および向き情報
に基づいて生成される。ビデオフィードから分析が実行され、オブジェクトに対する操作
が識別される。オブジェクトの3次元モデルは、オブジェクトの操作に基づいて更新され
る。オブジェクトの操作に関連する動的ステータスが、オブジェクトに関連する参照デー
タに関して生成される。
異なる角度および場所から同じ物理オブジェクトを見る複数のウェアラブルデバイス(
例えばカメラおよびディスプレイを含むモバイルデバイス)をさらに使用して、物理オブ
ジェクトの3次元を生成および再構築し得る。測量アプリケーションは、物理オブジェク
トの3次元モデルに関連付けられたコンポーネントの測量を生成する。例えば、コンポー
ネントには、乾式壁の釘、ダッシュボードのスイッチ、工場機械のボタン、ボート、また
は任意の産業用物理オブジェクトが含まれ得る。
US9665985B2(Mullinsら)は、第1のウェアラブルデバイスに表示
される仮想オブジェクトの操作を識別するリモートエキスパートアプリケーションを開示
する。仮想オブジェクトは、第2のウェアラブルデバイスで視認される物理オブジェクト
に基づいてレンダリングされる。仮想オブジェクトの操作は、第1のウェアラブルデバイ
スから受信される。仮想オブジェクトの操作の可視化は、第2のウェアラブルデバイスの
ディスプレイについて生成される。仮想オブジェクトの操作の視覚化は、第2のウェアラ
ブルデバイスに伝達される。
US2015/0235474A1およびUS9665985B2は両方とも、ウェア
ラブルデバイスがセンサ、ディスプレイ、プロセッサおよび記憶デバイスを含み得ること
を開示している。ウェアラブルデバイスは、ウェアラブルコンピューティングデバイス、
車両コンピュータ、タブレットコンピュータ、ナビゲーションデバイス、携帯式メディア
デバイス、またはユーザのスマートフォンであり得る。センサには例えば、近接センサま
たは場所センサ(例えば、近距離無線通信、GPS、Bluetooth、Wi-Fi)
、光学センサ(例えば、カメラ)、方位センサ(例えば、ジャイロスコープ)、音声セン
サ(例えば、マイク)またはその任意の好適な組み合わせが含まれ得る。
仮想現実(VR)/ARアプリケーションで使用され得る異なる光学位置追跡システム
は、WO2016/077401A1(Valve Corporation)に記載さ
れている。例示的実装には、1つ以上の受信機と1つ以上の送信機とが含まれる。例示的
送信機には、それぞれが扇形のレーザビームを放出する2つの直交回転子が含まれる。ロ
ータが一定速度で回転すると、各ビームが掃引される。例示的光学受信機は比較的小さく
することができ、VRディスプレイの便利な場所に取り付けることができる。これらの受
信機は、ヘッドマウントディスプレイに取り付けられ得る小さな光学検出器で構成されて
いる。例示的システムは、各掃引ビームが各受信機/検出器を交差する時間を測定するこ
とにより位置を決定する。
他の位置決めシステムも利用可能である。Valve Corporationの光学
位置決めシステムに類似した別のシステムは、US51002299Aに記載されている
。US2018/0128897A1は、その内容が参照により本明細書に組み込まれ、
超音波を使用して受信機に対する送信機の位置を決定するシステムを開示している。送信
機は、超音波パルスを放出し、音の放出時間の表示を電子的に提供する。コンピュータプ
ロセッサは、送信機と固定構成で配置された3つの超音波受信機とから時間表示を受信す
る。受信機は同一直線上に配置されておらず、音の波長の2倍未満の間隔が相互に空いて
いる。コンピュータプロセッサは、3つの受信機のそれぞれへの超音波の時間表示と飛行
時間とに基づいて、送信機の相対位置を推定する。好ましい実施形態では、受信機は、音
の波長よりも短い距離だけ互いに離間している。
内容が参照により本明細書に組み込まれるUS2017/0169612A1(Cas
henら)により開示されるように、ARシステムは、システムにより投影される仮想画
像がずれている、すなわち、仮想画像が、オーバーレイしようとする現実世界ターゲット
に対して正しく配置されていない)および/または仮想画像が歪んでいる場合、オペレー
タにとって有害であり得る。US2017/0169612A1は、リアルタイムで多数
の動的および静的因子入力を考慮するように構成され得る位置合わせシステムを開示し、
それにより、グラフィック画像が投影されるときに、グラフィック画像が、オーバーレイ
しようとする現実世界ターゲットと実質的に位置合わせされて、グラフィック画像が実質
的に歪みなく表示される。
その内容が参照により本明細書に組み込まれるUS2013/0235169A1号(
Katoら)は、3次元ビデオ画像を表示するディスプレイ、ディスプレイに対する視聴
者の目の内側の角または尾の位置を測定する位置取得部、標準位置を決定するための較正
において位置に関連する標準位置として目の内側の角または外側の角の測定された位置を
記憶部に取得する標準位置記憶ユニット、ディスプレイに対してコンテンツを視聴する視
聴者の目の内側の角または外側の角の新たな測定位置と標準位置との差を位置として検出
する位置検出部、および、ディスプレイ上に表示される3Dビデオ画像に画像処理を実行
して検出位置ギャップに従って3Dビデオ画像を回転または平行移動させる画像処理ユニ
ットを含むHMDを開示している。
US2017/0090203A1(MullinsおよびRies)は、センサ、透
明ディスプレイ、ならびに拡張現実アプリケーションおよび位置合わせモジュールを備え
るプロセッサを含むヘッドマウントデバイスを開示している。例えば、ヘッドマウントデ
バイスは、カメラ、および、タブレット、スマートフォン、またはウェアラブルコンピュ
ーティングデバイス(例えばヘルメットもしくは眼鏡)などの透明ディスプレイを伴うコ
ンピューティングデバイスであり得る。
本発明の態様によれば、建設現場の外因性現場座標系に位置付けられ、方向付けられた
建物情報モデル(BIM)の仮想画像をユーザに表示するためのウェアラブル拡張現実(
AR)ヘッドセットが提供される。ヘッドセットは、建設現場、または建築、建設、フィ
ッティングまたはセットアップタスクが正確な場所で実行されるべき任意の他の場所で、
建設業者および他の業者が使用することを特に目的としている。
好適には、ヘッドセットは、例えば、ユーザが着用するように構成された建設ヘルメッ
トなどのヘッドウェア物品を備え得る。
ヘッドセットは、それに取り付けられた1つ以上の位置追跡センサを有し得、位置追跡
センサは、ヘッドセットの位置および向きを決定できるようにする建設現場の場所で伝播
する1つ以上の信号に対する1つ以上のセンサの反応を表すセンサデータを出力するよう
に構成されている。好適には、1つ以上の信号は、建設現場にセットアップされた位置追
跡システムによって放出され得る。好適な位置追跡システムは、当業者に知られている。
本発明の実施形態で使用される位置追跡システムは、以下により詳細に説明するインサイ
ドアウト位置追跡システムである。
1つ以上の信号は、1つ以上の対応するビーコンによって放出され得る。建設現場での
1つ以上のビーコンの正確な場所が既知であり得る。あるいは、追跡システムを使用して
、既知の場所の1つ以上の制御点の位置を決定し得、それにより、ヘッドセットなどの位
置追跡システムによって追跡される他のオブジェクトの場所を、制御点の場所を参照して
算出することができる。
いくつかの実施形態では、1つ以上の信号は、電磁放射、例えば、光または電波から成
り得る。いくつかの実施形態では、以下により詳細に説明するように、掃引ビーム光学追
跡システムを使用し得る。そのようなシステムは、1つ以上のビーコンによって放出され
る赤外線信号を採用し得る。いくつかの実施形態では、WiFi追跡システムが使用され
得る。しかし、いくつかの実施形態は、例えば音波などの他のタイプの信号を利用し得る
いくつかの実施形態では、超音波を、使用されるヘッドセットに衝突する1つ以上の超
音波信号に対する1つ以上の位置追跡センサの反応とともに使用して、建設現場でのヘッ
ドセットの場所および向きを三角測量し得る。超音波を使用してオブジェクトの位置を追
跡するシステムおよび方法は、US2018/0128897A1に開示されている。
ヘッドセットは、拡張現実ディスプレイシステムを備え得る。拡張現実ディスプレイシ
ステムは、位置追跡センサに対して固定されたユーザの視野内の使用中位置を有するディ
スプレイアセンブリを含み得る。いくつかの実施形態では、ディスプレイアセンブリが、
使用位置から、例えばディスプレイアセンブリがユーザの目の前から除去される異なる位
置へと選択的に移動可能であり得ることが理解されるであろう。例えば、ディスプレイア
センブリは、使用中位置と「非使用中」位置との間の移動のために、ヘッドウェア物品に
ヒンジ留めされるか、または別様に取り付けられ得る。ただし、使用中位置では、ディス
プレイアセンブリをヘッドウェア物品の位置追跡センサに対して安定して配置し得、それ
により、ディスプレイアセンブリディスプレイは、使用中位置にある場合には位置追跡セ
ンサに対して不動とし得る。
好適には、ディスプレイアセンブリは、少なくとも1つのディスプレイを含み得、ユー
ザがディスプレイアセンブリを通して自身の周囲を見ることを可能にしながら、仮想画像
をユーザに表示することができ得る。ディスプレイは、透明または半透明であり得る。典
型的には、ディスプレイ自体に加えて、ディスプレイアセンブリは、ディスプレイから放
出される光によって運ばれる画像を見るための少なくとも1つのレンズを含み得る。レン
ズは、ディスプレイとユーザの目との間に好適に配置され得る。いくつかの実施形態では
、レンズは、仮想画像が無限遠に位置するようにユーザに見えるようにコリメータを備え
得る。あるいは、レンズは光を発散させて、それにより、仮想画像が無限遠よりも近いユ
ーザの前の焦点距離に見えるようにし得る。例えば、いくつかの実施形態では、ディスプ
レイと一緒にレンズを使用して、ディスプレイから放出される光によって表される仮想画
像が2~10mの範囲の焦点距離でユーザに見えるようにし得る。ディスプレイアセンブ
リの特性はまた、ディスプレイアセンブリの視野、その射出瞳サイズなども定義すること
が理解されるであろう。以下により詳細に説明するように、本発明に従って建物情報モデ
ルの仮想画像を正しく位置決めする場合、ディスプレイアセンブリのこれらおよび他の物
理的および光学的特性および特徴を考慮に入れ得る。
拡張現実ディスプレイシステムは、建物情報モデルの仮想画像を表す画像データを受信
し、仮想画像をディスプレイに表示するように構成され得る。仮想画像は、ユーザの目を
中心とする仮想カメラによって投影されているかのようにユーザに認識される。
ヘッドセットは、ユーザの頭部に対するディスプレイの位置を検出し、それを表すディ
スプレイ位置データを出力するディスプレイ位置センサをさらに備え得る。さらにまたは
あるいは、ヘッドセットは、ディスプレイがヘッドウェア物品に対して正しく配置される
ことを保証するための位置合わせデバイスを含み得る。当業者は、ユーザが同じ場所を見
ている場合でも、ユーザの頭部におけるヘッドセットの位置が使用中に変化し得ることを
理解するであろう。これは、ユーザが建築現場での建設タスクの実行に典型的には含まれ
る種類の手動操作に従事している場合に特に当てはまり得る。本発明によれば、現実世界
に対して正しい場所でユーザが仮想画像を見るように、仮想カメラがユーザの目に正確に
位置合わせされたままであることを保証することが重要である。ディスプレイ位置センサ
はしたがって、本発明に従って使用されて、建物情報モデルの仮想画像をディスプレイ(
複数可)に配置する際に、ユーザの頭部に対するヘッドセット、特に1つ以上のディスプ
レイの位置の変化が考慮されることを保証する。
ヘッドセットは、電子制御システムを備え得る。電子制御システムは、位置追跡システ
ムによって定義された内因性座標系内の建設現場でのヘッドセットの場所および向きをセ
ンサデータから決定し、それを表すヘッドセット追跡データを出力するように構成された
ヘッドセット追跡サブシステムを備え得る。
電子制御システムは、変換に基づいて内因性座標系と外因性座標系との間で位置データ
を変換するように構成された座標変換エンジンを備え得る。いくつかの実施形態では、変
換は、外因性座標系の既知の場所の1つ以上の制御点の座標を、内因性座標系のそれらの
対応する座標に関連付けることによって導出され得る。内因性座標系における1つ以上の
制御点の座標は、位置追跡システムを使用して少なくとも1つのセンサから受信したセン
サデータから導出され得る。
電子制御システムは、ヘッドセット追跡データ、ディスプレイ位置データ、および外因
性座標系で定義された建物情報モデルを表すモデルデータを受信し、座標変換エンジンを
使用してモデルデータを処理して内因性座標系で定義された導出モデルデータを生成し、
ヘッドセット追跡データおよびディスプレイ位置データを使用して建設現場でのヘッドウ
ェア物品の位置および向きとユーザの頭部におけるディスプレイの位置とに対する建物情
報モデルの仮想画像をレンダリングし、仮想画像を表す画像データを生成し、ユーザがデ
ィスプレイで見るために拡張現実ディスプレイシステムに画像データを送信するように構
成され得る。このように、本発明の目的は、ユーザが、通常の建設許容範囲内で現実世界
の建設現場に正しく配置されて方向付けられた建物情報モデルの仮想画像を見ることがで
きるようにすることであり、それにより、建築情報モデルに従って、場合によっては指定
された許容範囲内で、タスクが実行されることを保証するのに十分な程度の精度で、1つ
以上の建設タスクを実行する場所がユーザに通知される。
いくつかの実施形態では、電子制御システムは、ディスプレイがヘッドウェア物品に対
して正しく配置されることを保証するための位置合わせエンジンを備え得る。位置合わせ
エンジンは、ディスプレイ位置センサに加えて、またはその代わりに使用され得る。
本発明の別の態様によれば、本発明によるヘッドセット内で建設現場の外因性現場座標
系に配置および方向付けされた建物情報モデル(BIM)の仮想画像を表示する方法が提
供される。
文脈がそうでないことを示唆するか、または反対に示されない限り、本発明の1つ以上
の特定の態様に関して本明細書に記載の技術的なまたは他の特徴は、本発明のすべての態
様に適用できる。
ヘッドセットはしたがって、1つ以上の位置追跡センサがそれに取り付けられた、また
はそれに別様にしっかりと固定された、ユーザが着用するような形状および寸法のヘッド
ウェア物品と、少なくとも1つのディスプレイを含む拡張現実ディスプレイシステムと、
ユーザの頭部に対するディスプレイの位置を検出するディスプレイ位置センサと、電子制
御システムとを備え得る。
いくつかの実施形態では、本発明の方法は、上記のように建設現場で伝播する1つ以上
の信号、例えば電磁放射に対する1つ以上のセンサの反応を表すセンサデータに基づいて
位置追跡システムによって定義される内因性座標系で、建設現場でのヘッドセットの位置
および向きを決定するステップを備え得る。方法は、内因性座標系における建設現場での
ヘッドセットの位置および向きを表すヘッドセット追跡データを生成することを備え得る
。これらのステップは、ヘッドセット追跡システムによって便宜的に実行され得る。
いくつかの実施形態では、本発明の方法は、変換に基づいて内因性座標系と外因性座標
系との間で位置データを変換するステップを備え得る。上述したように、変換は、位置追
跡システムを使用して、外因性座標系の既知の場所の1つ以上の制御点の座標を、内因性
座標系のそれらの対応する座標に関連付けることによって導出され得る。好適には、その
ステップは座標変換エンジンによって実行され得る。
上記のように、内因性座標系における1つ以上の制御点の座標は、少なくとも1つのセ
ンサから受信したセンサデータに基づいて好適に決定され得る。
いくつかの実施形態では、本発明の方法は、ディスプレイ位置センサからディスプレイ
位置データを受信するステップと、ヘッドセット追跡データを受信するステップと、外因
性座標系で定義される建物情報モデルを表すモデルデータを受信するステップと、座標変
換エンジンを使用してモデルデータを処理し、内因性座標系で定義されている導出モデル
データを生成するステップと、ヘッドセット追跡データおよびディスプレイ位置データを
使用して、建設現場でのヘッドウェア物品の位置および向きに対して、ならびにユーザの
目に対するディスプレイの位置に対して、建物情報モデルの仮想画像をレンダリングする
ステップとを備え得る。方法は、仮想画像を表す画像データを生成することと、ユーザが
建物情報モデルの仮想画像として見るために拡張現実ディスプレイシステムに画像データ
を送信することとを備え得る。
上記のように、本発明のヘッドセットは、いくつかの実施形態では、ヘッドセット追跡
サブシステムおよび座標変換エンジンを備え得る電子制御システムを備え得る。ヘッドセ
ット追跡サブシステムは、本明細書でより詳細に説明するように、建設現場にてセットア
ップされた位置追跡システムと連携するように好適に構成され得る。ヘッドセット追跡サ
ブシステムを使用して、ヘッドセットでヘッドセット追跡データの処理を実行し得るが、
いくつかの実施形態では、建設現場でのヘッドセットの位置および向きを決定するための
ヘッドセット追跡データの処理を、ヘッドセット外で、例えば有線または無線接続を介し
てヘッドセットと通信するように配置されたリモートコンピュータで実行され得る。いく
つかの実施形態では、座標変換エンジンは、リモートコンピュータまたはサーバ上で実行
されるように構成され得る。したがって一般的に、ヘッドセットの電子制御システムによ
って実行される処理ステップのいくつかは、リモートコンピュータまたはサーバ上で、な
らびに、ヘッドセットとリモートコンピュータまたはサーバとの間のデータ送信用に構成
された適した手段で実行され得る。
本発明のさらに別の態様によれば、コンピュータ化されたデバイスによって実行される
と、建設現場の外因性現場座標系に配置されて方向付けられている建物情報モデル(BI
M)の仮想画像をヘッドセットに表示する方法をコンピュータ化されたデバイスに実行さ
せる命令セットを含むコンピュータプログラムが提供される。典型的には、コンピュータ
プログラムは、コンピュータ化されたデバイスによって実行されると、コンピュータ化さ
れたデバイスが上記の本発明による方法を実行するための命令セットを含む。
したがって、ヘッドセットは、1つ以上の位置追跡センサがそれに取り付けられたユー
ザが着用するように構成されたヘッドウェア物品と、ユーザの視野内部に使用中位置を有
するディスプレイアセンブリを含む拡張現実ディスプレイシステムと、少なくとも1つの
ディスプレイを含むディスプレイアセンブリと、ユーザの頭部に対するディスプレイの位
置を検出するためのディスプレイ位置センサと、電子制御システムとを備え得る。
本発明の実施形態によれば、建設現場の現実世界座標で拡張現実ヘッドマウントディス
プレイを使用して3次元の建物情報モデルを、少なくとも5mmの精度、好ましくは少な
くとも3mmの精度で視認させる方法が提供される。本発明の実施形態は以下を備え得る
(a)位置追跡システムによって使用される内因性座標系での追跡ボリューム内の拡張
現実ヘッドマウントディスプレイを少なくとも5mmに位置特定するために光学的インサ
イドアウト位置追跡システムを使用して、建設現場での拡張現実ヘッドマウントディスプ
レイを追跡すること。
(b)携帯式追跡デバイスを使用して、外因性座標系の既知の場所/制御点を位置追跡
システムで定義されている内因性座標系の制御点の対応する位置に変換する変換を使用す
ることにより、内因性座標系を外因性現実世界座標系に関連付けること。
(c)視線追跡デバイスを使用して、ユーザの目のうちの少なくとも1つの位置を拡張
現実ヘッドマウントディスプレイに関連付けること、および/または
(d)コンピュータソフトウェアを使用して、ヘッドセットの場所を表す位置追跡デー
タと、ユーザの頭部における拡張現実ヘッドマウントディスプレイの位置を表す視線追跡
データおよび拡張現実ヘッドマウントディスプレイの光学特性を表すデータとを融合して
、拡張現実ヘッドマウントディスプレイを介して仮想BIMモデルを現実世界座標で表示
すること。
本発明の実施形態は、拡張現実HMDを使用して、現実世界座標でBIMモデルを建設
公差(典型的には3mm以内の精度)で見る方法および/または作業をリアルタイムで検
証する能力を建設業者/商業請負業者に提供することを目的とする。これにより、現場技
術者の継続的な存在が不要になり得、作業員が建設図面を解釈し、基準点またはマーカ間
のマークされていない場所を決定する必要性を最小限に抑制し得、それにより、以前に位
置特定された基準点または制御点に基づいて基準点の位置決めにおける誤差の累積を除去
し得る。これによりまた、建設業者および商業請負業者にリアルタイムの検証情報を提供
しようとするため、検証作業においてセオドライトが不要になり得る。
本発明の異なる態様では、ヘッドセット追跡は、ヘッドセット外部のセンサを使用して
、ヘッドセットの位置および向きに基づいて外部追跡データを生成することを備え得る。
例えば光学センサ(例えば、深度対応3Dカメラ)、ワイヤレスセンサ(Bluetoo
th、WiFi)、GPSセンサ、またはオーディオセンサなどの追跡センサを使用して
、例えばユーザがどこを見ているかを判断するために、ヘッドセットの場所、物理的環境
における追跡センサまでのヘッドセットの距離(例えば、会場または部屋の角に配置され
たセンサ)、ヘッドセットの向きを決定し得る。
いくつかの実施形態では、仮想画像のレンダリングは、ヘッドセットからのヘッドセッ
ト追跡データおよび拡張現実データベースに基づいて仮想オブジェクトをレンダリングす
ることを含み得る。ヘッドセット追跡データは、ヘッドセット内部のセンサから受信した
センサデータに基づいて、ヘッドセットの位置および向きを表し得る。センサには、例え
ば、近接センサまたは場所センサ(例えば、近距離無線通信、GPS、Bluetoot
h、WiFi)、光学センサ(例えば、カメラ)、方位センサ(例えば、ジャイロスコー
プ)、音声センサ(例えば、マイク)またはその任意の好適な組み合わせが含まれ得る。
例えば、センサには、ヘッドセットの背面カメラおよび正面カメラが含まれ得る。
本発明のさらに別の態様によれば、光学式インサイドアウト位置追跡システムを使用し
て建設現場で携帯式セットアウトツールを追跡して追跡システムが使用する内因性座標系
の追跡ボリューム内のセットアウトツールの位置を特定することと、建設現場またはその
近くの1つ以上の制御点の現実世界座標系における既知の場所を、位置追跡システムによ
って決定された内因性座標系内の制御点の対応する位置に関連付けることにより導出され
た変換を使用して、内因性座標系を外因性現実世界座標系に関連付けることとを備える、
建設現場をセットアウトする方法が提供される。
本明細書における「インサイドアウト位置追跡システム」とは、追跡ボリューム内で追
跡されるオブジェクトに設けられたセンサ、例えば光-電子センサまたはマイクが、放射
源からのセンサの角距離を示す1つ以上の入射信号(例えば、電磁放射、または超音波、
またはパルス)の1つ以上の特性を検出または測定するよう構成される追跡システムを意
味する。典型的には、信号または放射の源は固定され得る。追跡されるオブジェクトは、
例えば本発明のヘッドセットであり得る。
信号(例えば、電磁放射)は指向性であり得る。特に、放射は、源の方位または角距離
を示すような方法で変調され得る。信号または放射は、例えば、追跡ボリュームにわたっ
て空間的に変調または減衰され得る。例えば、電磁放射の強度は、源までの角距離によっ
て異なり得る。
典型的には、電磁放射は、例えば追跡ボリュームを掃引することにより一時的に変化す
るレーザビームなどのビームの形態であり得る。
センサは、入射信号、例えば電磁放射の一時的な変化を検出し得る。
いくつかの実施形態において、ビームは、追跡ボリュームを通して一定速度で掃引され
得、それにより、ビームがセンサに入射する時間は、センサから源までの角距離を示す。
いくつかの実施形態では、ビームは、データを符号化するために変調される搬送波を備
え得る。
例えば、搬送波は、ビームの絶対位相を示すデータを符号化するために変調され得る。
センサから源までの角距離は、ビームの絶対位相と、ビームがセンサに入射する時間とか
ら導出され得る。
いくつかの実施形態では、搬送波は、ビームから源までの角距離を示す動的データを符
号化するために変調され得る。この場合、センサから源までの角距離をビームから「読み
取り」得る。
ビームが変調されてデータを符号化する場合、センサは、搬送波を復調して符号化デー
タを回復するための光-デジタル変換器を好適に組み込み得る。
ビームは、平面の扇形を有し得る。好適には、電磁放射は不可視光、好ましくは赤外線
であり得る。
いくつかの実施形態では、電磁放射は、2つの横断軸上のセンサの角度位置を決定する
ための2つの相互横断(例えば直交)面にて変調され得る。例えば、2つの相互横断ビー
ムが、追跡ボリュームにわたって掃引され得る。
好適なビームは、基地局内のロータにレーザを取り付けることにより生成され得る。上
記のように、ロータは一定の角速度で動作し得る。いくつかの実施形態では、2つの(ま
たはそれ以上の)レーザが単一のロータに取り付けられ得、レーザからのビームを相互に
横断方向に掃引するための好適な光学機械的構成が提供され得る。
あるいは、相互横断軸の周りを回転するように構成された2つ以上のロータが提供され
得る。2つ以上のロータのそれぞれに、1つ以上のレーザを搭載し得る。
電磁放射の2つ以上のビームが採用される場合、それらは、センサがビームを区別でき
るようにするために、互いに異なる周波数を有し得る。
追跡されるオブジェクトに1つ以上のセンサを提供し得、電磁放射の1つ以上の源があ
り得る。
追跡されるオブジェクトの場所は、複数の放射源に対する1つ以上のセンサの位置を三
角測量することにより決定することができる。
あるいは、オブジェクトの場所は、少なくとも1つの放射源に対してオブジェクト上の
複数のセンサの位置を三角測量することにより決定することができる。追跡されるオブジ
ェクトにおける複数のセンサの相対位置を知っておくべきである。
複数の放射源がある場合、各源は、電磁放射の1つ以上のビームを放出し得る。好適に
は、各源は、上記のように2つの相互横断ビームを放出するように動作可能な基地局を備
え得る。各基地局からの各ビームの周波数は異なり得る。
放射が2つの相互横断面上で変調される場合、オブジェクトの場所を3次元で決定する
ことができる。
典型的には、センサはカメラではないが、検出可能な電気信号を生成することにより入
射電磁放射に反応する。好適には、センサは、不可視光、例えば赤外線に反応するフォト
ダイオードを備え得る。例えば、センサはシリコンフォトダイオードを備え得る。センサ
は、フォトダイオードからの電気信号を増幅するための増幅器、離散エンベロープ検出器
、および高速コンパレータを組み込んだ光-デジタル回路をさらに備え得る。コンパレー
タは、好ましくは比較的小さなヒステリシスを有するべきである。このような回路は、電
磁放射が過渡的にセンサに当たるとデジタルパルスを送るように構成される。
電磁放射の掃引ビームの源に対するセンサの角距離は、ビームがセンサに入射するとき
のビームの絶対角度位置を参照することにより較正され得る。
あるいは、源に対するビームの角度方向は、ビーム内で動的に符号化され得、これは、
キャリア信号として使用される。
さらなる代替例では、源へのセンサの角距離は、同期信号と、センサにビームが入射す
るときとの間の経過時間から算出され得る。
典型的には、そのような同期信号は、ビーム自体と同様に、好ましくは不可視光、例え
ば赤外線である電磁放射の全方向フラッシュを備え得る。
好適なインサイドアウト光学位置追跡システムは、WO2016/077401A1に
開示されており、その内容は参照により本明細書に組み込まれる。
このようなインサイドアウト光学位置追跡システムを使用する利点は、追跡ボリューム
内のセンサの位置を3mm未満、より好ましくは1mm未満の精度で特定できることであ
る。本発明の方法は、例えば建設タスクなどの特定の作業が建設図面に従って建設現場で
行われるべき場所の位置を特定するために、建設現場で携帯式セットアウトツールの位置
を正確に追跡するための光学的インサイドアウト追跡システムを利用し得る。いくつかの
実施形態では、例えば、セットアウトツールを使用して、建設現場の基準点の位置を特定
し得る。
したがって、いくつかの実施形態では、本発明の方法は、変換を使用して外因性現実世
界座標系でのセットアウトツールの場所を算出することと、ユーザインタフェースを使用
して現実世界(現場)座標でセットアウトツールの位置を示すこととを備え得る。好適に
は、ユーザインタフェースは、現場座標におけるツールの位置を表示するための、例えば
フラットパネルディスプレイなどのディスプレイを含み得る。
本発明の特定の態様では、セットアウトツールは、ユーザが装着可能な拡張現実眼鏡を
備えるヘッドセットを備え、建設現場におけるセットアウトツールの位置に関する情報を
表示するための少なくとも1つのディスプレイを含み得る。例えば、拡張現実眼鏡は、建
設現場の特定の場所で実施される1つ以上の建設タスクに関する情報を表示するように動
作可能であり得る。いくつかの実施形態では、拡張現実眼鏡は、ヘッドセットの位置、ま
たは位置追跡システムの一部を形成する1つ以上のセンサを搭載するヘッドセットに取り
付けられた周辺機器の位置を、外因性現実世界座標で表示するように動作可能であり得る
いくつかの実施形態では、拡張現実眼鏡は、外因性現実世界座標で定義される建物情報
モデル(BIM)の仮想画像を表示するように動作可能であり得る。本発明によれば、仮
想画像は、建物モデルの現実世界現場座標を内因性座標系に変換するための変換を使用す
ることにより、建設現場に対して正しく位置特定され、方向付けられ、現場におけるユー
ザの位置について正しいコンテキストでユーザに表示される3D画像であり得る。
ヘッドセットは、例えば、位置追跡システムの一部を形成する複数のセンサを搭載する
ように適合された、当技術分野で知られている種類の建設ヘルメットなどの安全帽を備え
得る。好適には、拡張現実眼鏡を安全帽に組み込んで、眼鏡とセンサを搭載する安全帽と
の間の制御可能距離を保証し得る。しかし、いくつかの実施形態では、拡張現実眼鏡を安
全帽とは別個のものとし得る。
インサイドアウト位置追跡システムは、建設現場で間隔を空けた場所にセットアップで
きる1つ以上の基地局であって、各基地局は、例えば建設現場にわたって掃引される光ビ
ームなどの空間変調電磁放射を放出するよう動作可能である、基地局と、電磁放射に反応
するセットアウトツール上の複数のセンサとを備え得る。いくつかの実施形態では、基地
局は、最大約10m、好ましくは最大約5mの間隔でセットアップされ得る。上記のよう
に、変調電磁放射はセンサと基地局との間の角距離を示し得、それにより、セットアウト
ツールのセンサを使用して内因性座標系におけるセットアウトツールの位置および/また
は向きを決定し得る。
好適には、位置追跡システムは、セットアウトツールを外因性現実世界座標系の既知の
場所の制御点に配置し、内因性座標系の制御点におけるセットアウトツールの対応する位
置を決定することにより、外因性現実世界座標系に較正され得る。好適には、セットアウ
トツールは、2つ以上のセンサ、典型的には少なくとも3つのセンサを有し得る。センサ
の1つは、制御点に正確に配置され得る。1つのセンサに対する他のセンサの位置は既知
であり得、外因性現実世界座標内の他のセンサの位置を算出できる。2つ、3つ、または
それ以上のすべてのセンサの位置は、インサイドアウト追跡システムを使用して内因性座
標で決定され得る。
あるいは、またはさらに、位置追跡システムは、現実世界座標系で既知の場所を有する
追跡ボリューム内の2つ、3つ、またはそれ以上の制御点にツールを連続して配置し、各
制御点での内因性座標系でのツールの位置を決定することにより、外因性現実世界座標系
に較正され得る。
あるいは、またはさらに、位置追跡システムは、現実世界座標系の既知の場所を有する
追跡ボリューム内の2つ、3つ、またはそれ以上の制御点に配置されたセンサ(例えば光
学センサ)を使用し、内因性座標系でのセンサの位置を決定して、外因性現実世界座標系
に較正され得る。いくつかの実施形態では、追跡システムは、少なくとも2つまたは3つ
の制御点でセンサに関して定期的に再較正され得る。
外因性座標系における制御点の場所は、建設現場をセットアウトするための当業者に知
られている方法でトータルステーションを使用して決定され得る。したがって、建設現場
での制御点の位置は、例えば陸地測量部またはWGS84などの測地座標系で位置が正確
に知られている2つ以上の点からの三角測量によって決定され得る。
本発明の別の態様では、少なくとも1つの携帯式セットアウトツールと、追跡システム
により使用される内因性座標系の追跡ボリューム内のセットアウトツールの位置を特定す
るインサイドアウト位置追跡システムと、2つの座標系間で変換するための変換に基づい
て追跡システムによって決定された内因性座標系のセットアウトツールの座標を外因性現
実世界座標系の対応する座標に変換する座標変換エンジンを備える電子制御システムとを
備える建設現場をセットアウトするための機器が提供される。
好適には、変換は、現実世界座標系における既知の場所の1つ以上の制御点の位置を、
インサイドアウト位置追跡システムを使用して決定される内因性座標系の対応する位置に
関連付けることから導出される。
セットアウトツールは、例えば、外因性現実世界座標系におけるセットアウトツールの
位置をユーザに示すためのディスプレイなどのユーザインタフェースを備え得る。したが
って、上記のように、携帯式セットアウトツールを使用して、建設図面に従って建設現場
をセットアウトするための建設現場上の特定の基準点の位置を特定し得る。例えば、セッ
トアウトツールは、フラットパネルまたは「計算機タイプ」ディスプレイを備え得る。
位置追跡システムは、セットアウトツールに取り付けられた少なくとも1つのセンサと
、例えば基地局との角距離を示す変調電磁放射などの信号を放出するように動作可能な少
なくとも1つの基地局とを備え得る。好適には、少なくとも1つのセンサおよび少なくと
も1つの基地局は、上記のとおりであり得る。
いくつかの実施形態では、携帯式セットアウトツールは、先端を有するプローブを備え
得る。セットアウトツールは、建設現場の場所にセンサを正確に配置するために、プロー
ブの先端に配置されるセンサを備え得る。携帯式セットアウトツールの位置は、プローブ
の先端にあるセンサの位置として算出され得る。
いくつかの実施形態では、位置追跡システムは複数の基地局を備え得る。
いくつかの実施形態では、少なくとも1つの基地局は、電磁放射の少なくとも1つのビ
ームを放出し、追跡ボリュームにわたってビームを掃引するように動作可能である。好適
には、基地局は、制御された速度または一定の速度で、追跡ボリュームにわたってビーム
を掃引するように動作可能であり得る。
追跡システムは、少なくとも1つのセンサから受信したセンサデータ、例えば、センサ
がビームに反応するときを表すタイミングデータ、またはビーム内で符号化された角距離
データに基づいて、内因性座標系におけるセットアウトツールの位置を決定する追跡エン
ジンを備え得る。好適には、追跡エンジンは、携帯式セットアウトツール内に収容され得
、それにより、内因性座標系における追跡ボリューム内の携帯式セットアウトツールの位
置の算出は、携帯式セットアウトツール内で完全に実行される。
しかし、いくつかの実施形態では、追跡エンジンは、例えば、セットアウトツールとは
別個のコンピュータなどの制御デバイスに実装され得る。この構成は、機器が複数の携帯
式セットアウトツールを備えている場合に特に便利であり得る。制御デバイスおよび1つ
以上のセットアウトツールには、そのまたは各セットアウトツールと制御デバイスとの間
でデータを通信するためのそれぞれのデータ送信機が提供され得る。例えば、セットアウ
トツール上の少なくとも1つのセンサからのセンサデータは、内因性座標系における追跡
ボリューム内のセンサの位置の算出のためにリモート制御デバイスに送信され得、内因性
座標系でのセンサの位置を表す追跡データは、変換エンジンを使用して外因性現実世界座
標系に変換するためにセットアウトツールに送信され得る。
さらなる変形例では、座標変換エンジンはまた、別個の制御デバイス内で実装され得、
外因性座標系における1つ以上のセットアウトツールの位置を表す追跡データをセットア
ウトツールに送信して、1人以上のユーザに表示し得る。
複数のセットアウトツールが提供される場合、それぞれが特定のセットアウトツールを
識別する一意の識別子を表すデータを別個の制御デバイスに送信し得る。制御デバイスは
、複数のセットアウトツールの一意の識別子を使用して、正しい追跡データが各セットア
ウトツールに送信されることを保証するように動作可能であり得る。
1つ以上のセットアウトツールは、ケーブルまたは無線によりデータ転送のために制御
デバイスに接続され得る。
いくつかの実施形態では、電子制御システムは、インサイドアウト位置追跡システムを
使用して現実世界座標系における既知の場所の1つ以上の制御点の内因性座標系における
位置を特定することにより、内因性座標系を外因性現実世界座標系に関連付けるための変
換を生成する較正エンジンをさらに備え得る。
電子制御システムは、携帯式セットアウトツール内に便宜的に収容され得る。しかし、
いくつかの実施形態では、電子制御システムは、上記の種類の別個の制御デバイスに配置
され得る。現実世界座標における携帯式セットアウトツールの位置は、制御デバイスで算
出され、ユーザに表示するためにセットアウトツールに送信され得る。同様に、変換は、
別個の制御デバイスの較正エンジンと、変換エンジンに通信されて内因性座標系の座標を
外因性系の対応する座標に変換する変換を表すデータとを使用して生成され得る。
いくつかの実施形態では、本発明の実施形態による機器はさらに、外因性現実世界座標
系の既知の座標の建設現場における場所に配置でき、インサイドアウト位置追跡システム
を使用して追跡されて内因性座標系におけるその座標を決定できる少なくとも1つのセン
サを備える少なくとも1つの較正ツールを含み得る。較正エンジンは、変換を導出するた
めに、内因性および外因性座標系でセンサの対応する座標の位置を関連付けるために使用
され得る。
好適には、機器は、それぞれが少なくとも1つのセンサを有する複数のそのような較正
ツールを含み得る。
別の実施形態では、機器は、複数のセンサを有する少なくとも1つの較正ツールを含み
得る。
いくつかの実施形態では、位置追跡システムの定期的な再較正のために、既知の場所の
制御点に固定されるように較正ツールを構成し得る。この目的のために、較正ツールは、
上記のようなセンサと、制御点で較正ツールをオブジェクトにしっかりと固定するための
取り付け部とを備え得る。
いくつかの実施形態では、セットアウトツールはヘッドセットを備え得る。ヘッドセッ
トは、建設現場でのセットアウトツールの位置に関連する情報を表示するための拡張現実
ディスプレイを組み込み得る。
本発明のさらなる態様によれば、複数のセンサがそれに取り付けられたヘッドウェア物
品と、ユーザが見たときに建物情報モデル(BIM)の仮想画像を表示する1つ以上のデ
ィスプレイを組み込んだ拡張現実眼鏡と、電子制御システムとを備える、建設現場をセッ
トアウトする際に使用するヘッドセットが提供される。好適には、本発明のヘッドセット
はさらに、ユーザの頭部の拡張現実眼鏡の位置、より具体的にはユーザの目に対する1つ
以上のディスプレイの位置を検出するための手段をさらに含む。
電子制御システムは、外因性現実世界座標系で定義された建物情報モデルを表すモデル
データを受信および処理し、外因性座標系と内因性座標系との間の変換を使用して内因性
座標系でモデルを配置および方向付けするためのモデル位置決めエンジンを備え得る。
電子制御システムは、内因性座標系での建設現場のヘッドウェア物品の位置および向き
を表すヘッドセット追跡データを受信し、ヘッドウェア物品の位置および向きに対してモ
デルの仮想画像をレンダリングし、モデルの仮想画像としてユーザが見ることができる1
つ以上のディスプレイに画像を送信する画像レンダリングエンジンを備え得る。
画像レンダリングエンジンはまた、ユーザの目に対する1つ以上のディスプレイの位置
を表すディスプレイ位置データを受信し得る。したがって、いくつかの実施形態では、画
像レンダリングエンジンは、内因性座標系における建設現場のヘッドウェア物品の位置お
よび向きを表すヘッドセット追跡データ、ユーザの目に対する1つ以上のディスプレイの
位置を表すディスプレイ位置データを受信し、建設現場でのヘッドウェア物品の位置およ
び向きと、ユーザの目に対する拡張現実眼鏡の位置とに対するモデルの仮想画像をレンダ
リングし、モデルの仮想画像としてユーザが見ることができる1つ以上のディスプレイに
画像を送信するように構成され得る。
いくつかの実施形態では、ヘッドセット追跡データは、建設現場の1つ以上の基地局に
よって放出される変調電磁放射に対するヘッドウェア物品上の複数のセンサの反応を表す
センサデータから導出され得、電磁放射の変調は、1つ以上の尊重される基地局までの角
距離を示している。
いくつかの実施形態では、変換は、外因性座標系における既知の場所の1つ以上の制御
点の座標を、内因性座標系の対応する座標に関連付けることによって導出され得、内因性
座標系における1つ以上の制御点の座標は、変調電磁放射に対する1つ以上の制御点に配
置された1つ以上のセンサの反応を表すセンサデータから導出される。
したがって、ヘッドウェア物品上のセンサは、センサの位置を追跡するために1つ以上
の基地局から建設現場にわたって掃引される非可視光、好ましくは赤外線の1つ以上のビ
ームに反応し得る。有利には、上記のように、そのまたは各基地局は、相互横断する、好
ましくは直交する平面で非可視光の2つのビームを放出し得る。そのまたは各ビームは、
平面の扇形を有し得る。
センサは、好適な光-デジタル変換器によってデジタル信号に変換することができる検
出可能信号を生成することにより、電磁放射に反応する光-電子センサであり得る。いく
つかの実施形態では、デジタル信号は、追跡データを導出するためのタイミングデータを
符号化し得る。タイミングデータは、フィールドプログラマブルゲートアレイ(FPGA
)によってタイムスタンプが付され、集計され得る。あるいは、デジタル信号は、ビーム
内に含まれるデータをビームのその源への瞬間的な角距離を表すキャリア信号として復調
することによって得られた角距離データを符号化し得る。
好適には、ヘッドウェア物品は、ヘッドセット上の互いに既知の位置に少なくとも5つ
のセンサを有する。いくつかの実施形態では、ヘッドウェア物品は、内因性座標系でヘッ
ドセットの位置および向きを正確に決定するために、5つ超のセンサ、好ましくは10個
超のセンサ、より好ましくは20個超のセンサを備え得る。いくつかの実施形態では、ヘ
ッドウェア物品は最大32個のセンサを備え得る。
いくつかの実施形態では、ディスプレイ位置データは、ヘッドウェア物品の1つ以上の
ディスプレイ位置センサによって生成され得る。好適なディスプレイ位置センサは、当業
者に知られており、例えば、US2013/0235169A1またはUS975441
5B2に開示されている種類の位置センサを含み、これらの内容は参照により本明細書に
組み込まれる。
例えば、いくつかの実施形態では、ディスプレイ位置データは、ユーザの目の動きを追
跡するための少なくとも1つの視線追跡デバイスによって生成され得る。視線追跡デバイ
スは、ユーザの目の位置を追跡するように構成され得る。好適には、ディスプレイ位置デ
ータは、ディスプレイに対するユーザの目の少なくとも1つの瞳孔の位置を表すデータを
備え得、より具体的には、ディスプレイ位置データは、ディスプレイに対するユーザの目
の瞳孔の少なくとも1つの中心の位置を表すデータを備え得る。いくつかの実施形態では
、視線追跡デバイスは、ヘッドセットに取り付けられてユーザの目に赤外線を放出するよ
う構成された少なくとも1つの赤外線カメラと、反射赤外放射を検出する少なくとも1つ
の赤外線検出器とを含み得る。
あるいは、ディスプレイ位置センサは、例えば、ユーザの頭部、皮膚および/または髪
の表面詳細を画像化して肌および/または髪に対するディスプレイの動きを決定する内向
きCMOS検出器を備え得る。このような動きは、ディスプレイとユーザの頭部との間の
相対的な動きに対応し得る。いくつかの実施形態では、CMOS検出器は、LED光源と
、放射光線および反射光線を導くための単一レンズまたはマイクロレンズアレイのいずれ
かとを備え得る。CMOS検出器は、ディスプレイアセンブリ上の任意の好適な場所に配
置され得る。任意の好適な光学センサ技術および構成が、内向きの光学検出器に使用され
得る。例えば、任意の光学式マウスに見いだされるレーザまたはLED、レンズ、および
CMOSセンサは、ディスプレイとユーザの頭部との間の相対運動検出器として使用され
得る。
他の例では、ディスプレイ位置センサは、例えば、ユーザの頭部から離れて面してディ
スプレイアセンブリ上に配置されたカメラなどの外向きセンサを備え得る。カメラは、物
理的環境およびユーザの環境内の物理的オブジェクトから2次元画像情報および/または
深度情報をキャプチャし得る。例えば、カメラは、深度カメラ、可視光カメラ、赤外光カ
メラ、および/または位置追跡カメラを含み得る。
いくつかの実施形態では、BIMモデルの仮想画像は、拡張現実眼鏡の1つ以上のディ
スプレイでユーザに表示される合成3D画像を備え得る。好適には、眼鏡は、合成画像を
立体画像として表示するための2つのディスプレイを備え得る。本発明に従って生成され
る仮想画像は、1つ以上のディスプレイの光学的特性および/または物理的特性に従って
調整され得ることが、当業者によって理解されるであろう。したがって、当技術分野で知
られているように、仮想画像は、拡張現実ディスプレイの焦点距離および/または射出瞳
サイズに一致すべきである。
BIMモデルの仮想画像は、ヘッドセットが建設現場に対して移動したときに仮想画像
がスムーズに更新されるように、少なくとも30Hz、好ましくは少なくとも60Hzの
フレームレートを有するべきである。1つの実施形態では、画像レンダリングエンジンの
フレームレートは約90Hzであり得る。
1つ以上の基地局からの不可視光のビームは、仮想画像の所望フレームレートよりも低
い周波数で建設現場にわたって移動し得る。例えば、いくつかの実施形態では、光ビーム
は、30~60Hzの範囲の掃引周波数を有し得る。ヘッドセットの電子制御システムは
したがってさらに、少なくとも1つの慣性測定ユニット(IMU)を備え得る。好適なI
MUユニットは、当業者に利用可能であり、例えば500Hzの報告周波数とともに、例
えば1000Hzのサンプリングレートを有し得る。
内因性座標系におけるヘッドウェア物品の位置および向きを表す追跡データは、IMU
ユニットからの動きデータを、センサによって出力されたセンサデータから導出された位
置データと融合し得る。追跡モジュールはしたがって、センサデータをIMUから受信し
た動きデータと融合して、センサデータのみを使用して仮想画像のスムーズなフレームレ
ートを提供可能であり得るよりも高い周波数で追跡データを生成し得る。好適には、内因
性座標系でのヘッドウェア物品の位置および向きを表す追跡データは、主にIMUユニッ
トからの動きデータに基づいており、センサデータから導出される、より正確な位置およ
び向きの情報で定期的に更新される。
実行される建設タスクを表す仮想画像を現場の作業員に表示することにより、建設現場
をセットアウトするために本発明のヘッドセットを使用し得ることが、当業者には理解さ
れるであろう。仮想画像は、作業員に関連したコンテキストで、BIMモデルで定義され
るように建設現場におけるその正しい位置および向きに表示できる。位置追跡システムの
内因性座標系と建設現場について確立された外因性現実世界座標系との間の変換により、
BIMモデルは、追跡システムで使用される内因性座標系にて正しく配置および方向付け
でき、ヘッドウェア物品の位置および向きを追跡することにより、その適したコンテキス
トで作業員に表示できる。このように、例えばトータルステーションなどの従来の方法を
使用して制御点の位置を特定すると、建設現場で基準点またはマーカの位置をさらに特定
すること、または、基準点またはマーカに関連して建設現場で実行されるべきタスクの方
法について建設図面を解釈することの必要がなくなる。
代わりに、本発明によれば、従来の方法を使用して制御点の位置が特定されると、現場
で実行されるべきタスクを、正しい場所で正しい向きに作業員に直接、表示することがで
き、基準点もしくはマーカ間の補間または建設図面の解釈の必要性を回避することができ
る。
好適には、電子制御システムはさらに、内因性座標系における建設現場でのヘッドウェ
ア物品の位置および向きを算出するために、ヘッドウェア物品のセンサから受信したセン
サデータを処理する追跡エンジンを備え得る。
いくつかの実施形態では、電子制御システムはさらに、ヘッドウェア物品の1つ以上の
ディスプレイ位置センサから受信したディスプレイ位置データを処理してユーザの目に対
するヘッドウェア物品の1つ以上のディスプレイの位置を決定するディスプレイ位置追跡
エンジンを備え得る。
電子制御システムは、1つ以上のプロセッサと、1つ以上のメモリユニットと、変換を
使用して内因性座標系においてモデルを配置して方向付けするためにモデルデータを処理
することが1つ以上のプロセッサによって実行可能なモデル位置決めモジュール、ならび
に、追跡データ、モデルデータ、および任意選択的なディスプレイ位置データを処理して
、ヘッドウェア物品の位置および向きに対して、および任意選択的にユーザの頭部におけ
るディスプレイの位置に対してBIMモデルの仮想画像をレンダリングすることが1つ以
上のプロセッサで実行可能な画像レンダリングモジュールを備えるソフトウェアを保存す
る少なくとも1つのデータ記憶デバイスとを備え得る。電子制御システムが、モデル位置
決めエンジンおよび/または画像レンダリングエンジンを実装するための1つ以上のマイ
クロコントローラ、または、ローカルデータバスによって通常の方法で相互接続される別
個のメモリおよびデータ記憶デバイスを伴う1つ以上のマイクロプロセッサを備え得るこ
とが理解されよう。
電子制御システムは、少なくとも1つのデータ通信デバイスをさらに備え得る。
ソフトウェアは、データ通信デバイスを介してリモートサーバからモデルデータを受信
することが1つ以上のプロセッサによって実行可能なモデルダウンロードモジュールを含
み得る。
いくつかの実施形態では、ソフトウェアは、変換を受信して少なくとも1つのデータ記
憶デバイスに保存することが1つ以上のマイクロプロセッサによって実行可能な変換受信
機モジュールをさらに備え得る。
いくつかの実施形態において、ソフトウェアはさらに、ヘッドセット上のセンサから受
信したセンサデータを処理して内因性座標系の建設現場におけるヘッドウェア物品の位置
および向きを算出することが1つ以上のプロセッサによって実行可能な追跡モジュールを
備え得る。
上記のように、本発明の実施形態によるヘッドウェア物品は、ヘルメットに取り付けら
れた、またはヘルメットとは別個の拡張現実眼鏡を伴う、例えば建設ヘルメットなどの安
全帽を備え得る。
本発明はまた、本明細書に記載の本発明に従って建設現場をセットアウトする方法を実
行するためのコンピュータ実行可能ソフトウェアを含む。
したがって、本発明のさらに別の態様では、建設現場をセットアウトするための機器を
制御するコンピュータソフトウェアが提供され、これは、内因性座標系における携帯式セ
ットアウトツールの位置および/または向きを決定する追跡モジュールと、内因性座標系
と外因性座標系との間の変換のための変換を使用して、内因性座標系のセットアウトツー
ルの座標を外因性現実世界座標系の対応する座標に変換するための座標変換モジュールと
を備える。
本発明のさらに別の態様によれば、したがって、座標変換モジュールは、追跡モジュー
ルによって算出されるように、内因性座標系におけるセットアウトツールの位置および/
または向きを表す追跡データに変換を適用して、外因性座標系におけるセットアウトツー
ルの位置および/または向きを決定することがプロセッサによって実行可能であり得る。
上記のように、変換は、現実世界座標系における既知の場所の1つ以上の制御点の位置
をインサイドアウト位置追跡システムを使用して決定された内因性座標系のそれらの対応
する位置に関連付けることから好適に導出される。
追跡モジュールは、建設現場の少なくとも1つの基地局から放出される信号(例えば変
調電磁放射)に反応するセットアウトツール上の1つ以上のセンサの出力を表すセンサデ
ータに基づいて、セットアウトツールの位置および/または向きを算出することがプロセ
ッサによって実行可能であり得る。
上記のように、1つ以上のセンサは、例えば、1つ以上の基地局からの入射光に反応す
るフォトダイオードなどの光-電子センサであり得る。
変調光は時間的に変化し得る。1つ以上のセンサは、タイムスタンプが付されて集約(
例えば、2つ以上のセンサがある場合)されるデジタルパルスに変換され得る電気信号を
生成して、センサから基地局までの角距離を示すタイミングデータを提供し得る。
いくつかの実施形態では、変調光は、データを符号化するために変調され得る。
いくつかの実施形態では、データは、光の絶対位相を表し得、センサと光が放出される
基地局との間の角距離を、光がセンサに入射する時間に基づいて算出することができる。
いくつかの実施形態では、データは、光が放出される基地局への方位を表し得る。光は
、追跡ボリュームにわたって掃引されるものであり得、データは、基地局に対するビーム
の方位が変化するにつれて動的に更新され得る。
追跡モジュールはしたがって、センサからのそのようなセンサデータに基づいてセット
アウトツールの位置および/または向きを算出することがプロセッサによって実行可能で
あり得る。いくつかの実施形態では、上記のように、追跡モジュールは、IMUユニット
の出力を表す動きデータに基づいて、セットアウトツールの位置および/または向きを算
出することが、プロセッサによって実行可能であり得、これは、1つ以上のセンサの出力
を表すデータから導出された、より正確な位置および/または向きの情報で周期的にスケ
ルチされる。
本発明のさらに別の態様によるソフトウェアはさらに、変調光に対する各制御点でのセ
ンサの反応を表すデータから外因性現実世界座標系における既知の場所の複数の制御点の
内因性座標系における位置を決定して、内因性座標系を外因性現実世界座標系に関連付け
るための変換を生成することがプロセッサによって実行可能な較正モジュールを備え得る
いくつかの実施形態において、ソフトウェアはさらに、外因性現実世界座標における追
跡モジュールによって決定されたセットアウトツールの位置を表示するようディスプレイ
を制御することがプロセッサによって実行可能なディスプレイモジュールを備え得る。い
くつかの実施形態では、ディスプレイはセットアウトツール上に提供され得る。いくつか
の実施形態では、ディスプレイは、例えば拡張現実ディスプレイを備えるヘッドセットで
提供され得る。
いくつかの実施形態では、ソフトウェアはさらに、外因性現実世界座標系で定義された
建物情報モデル(BIM)を表すモデルデータを受信および保存することがプロセッサに
よって実行可能なデータ通信モジュールを備え得る。
いくつかの実施形態では、ソフトウェアはさらに、モデルデータによって表される建物
情報モデルの位置および向きを、変換を使用して外因性座標系から内因性座標系に変換す
ることがマイクロプロセッサによって実行可能なモデル位置決めモジュールを備え得る。
いくつかの実施形態では、ソフトウェアはさらに、変換されたモデルデータと追跡デー
タで表されるセットアウトツールの位置および向きとを使用して、セットアウトツールの
一部を形成する拡張現実ディスプレイに表示するための建物情報モデルの仮想画像をレン
ダリングすることがプロセッサによって実行可能な画像レンダリングモジュールを備え得
る。
いくつかの実施形態では、ソフトウェアはさらに、変換を受信してデータ記憶デバイス
に保存することがプロセッサによって実行可能な変換受信機モジュールを備え得る。
本発明のいくつかの実施形態では、コンピュータソフトウェアは、眼鏡が安全帽に対し
て正しく配置されることを保証するための位置合わせモジュールを備え得る。
本発明の別の態様では、プロセッサによって実行可能なマシンコードを備える建設現場
のセットアウトに使用するためのインサイドアウト位置追跡システムを較正する較正ソフ
トウェアが提供され、それは(i)外因性現実世界座標系での建設現場における複数の制
御点の位置を表す制御点場所データを受信し、(ii)追跡システムで使用される内因性
座標系における制御点の位置を表す制御点追跡データを受信し、(iii)内因性座標系
および外因性座標系における制御点の位置を関連付けて座標系間の変換を導出する。
好適には、較正ソフトウェアは、基地局までの角距離を示す、建設現場の少なくとも1
つの基地局によって放出された変調電磁放射に対する各制御点でのセンサの反応を表すセ
ンサデータを受信および処理して内因性座標系での制御点の位置を算出することがプロセ
ッサによって実行可能なマシンコードを備え得る。
有利には、マシンコードは、ステップ(i)~(iii)を定期的に繰り返して変換を
リフレッシュするように実行可能であり得る。
以下は、本発明の実施形態の添付図面を参照した単なる例としての説明である。
図面において、
建設現場の概略図であり、そこでは、インサイドアウト位置追跡システムが、本発明に従って携帯式セットアウトツールの位置を追跡するようにセットアップされる。既知の場所の複数の制御点は、セットアウトツールを現実世界座標系に較正するために建設現場にて位置特定されている。 本発明によるセットアウトツールに組み込まれている光-電子センサの概略図である。 本発明によるマルチセンサ較正ツールで使用するための複数の光-電子センサの概略図である。 追跡ボリューム内の既知の場所の複数の制御点を使用して、本発明による外因性現実世界座標系にセットアウトツールを較正する方法を概略的に示す。 既知の場所の単一制御点とマルチセンサ較正ツールとを使用して、本発明による外因性現実世界座標系にセットアウトツールを較正する代替方法を概略的に示す。 追跡システムによって定義される追跡ボリューム内の既知の場所の複数の制御点を使用して、内因性座標系を伴う位置追跡システムを外因性現実世界座標系に較正する方法を概略的に示す。 本発明による位置追跡システムの較正に使用するためのマルチセンサ較正ツールを概略的に示す。 典型的な建物情報モデル(BIMモデル)の概略図である。 本発明による携帯式セットアウトツールの概略図である。 図8の携帯式セットアウトツールの電子部品を概略的に示す。 較正モードにおける図8および図9の携帯式セットアウトツールの動作を表すフローチャートである。 セットアウトモードにおける図8および図9の携帯式セットアウトツールの動作を表すフローチャートである。 本発明による拡張現実ディスプレイを組み込んだ安全帽の上方から片側への斜視概略図である。 追跡モジュールと拡張現実ディスプレイモジュールとを含む図12の安全帽の電子部品を示す。 図12および図13の安全帽の追跡モジュールの動作を表すフローチャートである。 図12および図13の安全帽の拡張現実ディスプレイモジュールの動作を表すフローチャートである。 図1の建設現場に対して正しく配置されて方向付けられている図7のBIMモデルを概略的に表す。 図12および図13の拡張現実眼鏡を伴う安全帽を使用して、本発明による建設現場をセットアウトする方法を概略的に示す。 ディスプレイがユーザの目に対して中央にあるときのディスプレイ上の仮想画像のユーザのビューを示す。仮想画像は、ディスプレイを介して現実世界のユーザのビューに対して正しく配置される。 ディスプレイが中央位置からずれた状態の、図18と同じ仮想画像のユーザのビューを示す。仮想画像は、ディスプレイを介して現実世界のユーザのビューに対して誤って位置特定される。 中央位置からのディスプレイのずれを補正するために、ディスプレイ上で図18の仮想画像の位置がどのように調整されるべきかを概略的に示し、それにより、ディスプレイを介して現実世界のユーザのビューに対して画像が正しく位置特定されたままになる。 画像を表すデータ、ヘッドセット追跡データ、視線追跡データ、座標変換データ、およびディスプレイの特性に基づいて仮想画像がレンダリングされる、本発明による拡張現実ヘッドセットについての電子制御システムの動作を示すフローチャートである。
位置追跡システム
建設現場1が図1に概略的に示されている。3つの制御点10a、10bおよび10c
は、測量の当業者によく知られた方法でトータルステーションを使用して制御現場1にて
正確に位置特定される。特に、制御点10a、10b、10cは、建設現場のまたは建設
現場に隣接する地理的三角測量点、ベンチマークまたは他の既知の地理的特徴などの絶対
的な既知の場所の2つ以上の点からの三角測量によって、建設現場1に配置される。点1
0a、10b、10cの場所は、例えば、WGS84または陸地測量部基準などの任意の
好適な現実世界座標系で表現され得る。
図1には3つの制御点10a、10b、10cが示されているが、他の実施形態では、
3つ超の制御点が確立され得る。
レーザベースのインサイドアウト位置追跡システム100が、建設現場1にてセットア
ップされる。本実施形態では、追跡システム100は、複数の離間した基地局102を備
え、それらの各々は、赤外光のパルス103の全方向同期を放出するように選択的に動作
可能であり、相互に直交する軸上で建設現場1にわたって2つの線形不可視光光学扇形ビ
ーム104、105を掃引するように構成された2つのロータを備える。本実施形態では
、基地局102は、最大約5~10mの距離だけ互いに離れている。他の実施形態では、
採用されるインサイドアウト位置追跡システムの能力に応じて、基地局102は10m超
、離れて配置され得る。
図1に示すように、本実施形態では4つの基地局102が採用されるが、他の実施形態
では4つ未満の基地局102、例えば1つ、2つもしくは3つの基地局102、または4
つ超の基地局を使用し得る。使用される基地局102の総数は、建設現場1によってカバ
ーされるエリアに依存する。より多くの基地局102が使用される場合、より広いエリア
をカバーすることができる。
特に建設現場1が狭いエリアのみをカバーするいくつかの実施形態では、後述するよう
に単一の基地局102で十分であり得るが、少なくとも2つの基地局102があることが
好ましい。
上記のように、好適なインサイドアウト位置追跡システムは、WO2016/0774
01A1(Valve Corporation)によって開示されるが、建設現場をセ
ットアウトするために必要なレベルの精度を提供するならば、他の位置追跡システムを使
用し得る。
例えば、いくつかの実施形態では、代替のインサイドアウト位置追跡システムを採用し
得(図示せず)、これは2つ以上の基地局を備え、その各々は、相互横断軸上で建設現場
1にわたって2つの線形不可視光光学扇形ビームを掃引するように動作可能である。各基
地局によって生成される2つのビームは、上記のように別個のロータに取り付けられたレ
ーザ、または単一のロータに取り付けられた2つのレーザによって生成され得、それらは
、相互横断方向に掃引する2つのビームを作成するための好適な光学機械的構成を伴う。
ビームは相互に異なる周波数を有し得、搬送波として機能して基地局への方位(例えば、
方位角または傾斜のそれぞれ)を表すデータを符号化し得る。そのような構成では、全方
向同期パルスは不要である。
特に、追跡システムは、各方向で3mm以下、好ましくは1mm未満の精度で追跡オブ
ジェクトの位置を特定可能であるべきである。これは、GPSベースの位置追跡システム
とは対照的であり、GPSベースの位置追跡システムでは、わずか約1~5cmの範囲の
精度しか実現できない。このような精度は屋外の建設作業には十分であり得るが、より詳
細な屋内または内装作業には適していない。
本発明によれば、したがって、インサイドアウト位置追跡システムは、少なくとも±1
mm、好ましくは±1mmよりも高い精度を有するべきである。
執筆時点で、WO2016/077401A1の開示に従った好適な追跡システムは、
「Lighthouse」という商品名でValve Corporationから市販
されている。
「Lighthouse」追跡システムでは、各基地局102内の2つのロータのそれ
ぞれが、レーザ光のビームを放出する複数の赤外線レーザダイオードを搭載している。動
作中、ロータは60Hzの周波数で互いに180°だけ位相がずれて回転する。他の実施
形態では、1つ以上のビームは、30~90Hzまたは45~75Hzの周波数で掃引さ
れ得る。各レーザビームは、基地局102内のミラーによって反射され、建設現場1にわ
たって掃引するそれぞれの扇形ビーム104、105を生成する。基地局102によって
放出されるレーザビーム104、105は、図4、図5Aおよび図5Bに最もよく示され
るように建設現場1にて追跡ボリューム110を定義する。
全方向同期パルスは、各掃引サイクルの開始時に120Hzの周波数で各基地局102
内の複数のLEDによって放出され、追跡ボリューム110を光で漲らせる。このため、
同期パルスの生成には、例えばLEDなどの広角光源が好ましい。
正確な一定角速度で建設現場1にわたってレーザビーム104、105を掃引し、レー
ザビーム104、105を正確なタイミングの同期パルス103に同期させることにより
、各基地局102は、以下でより詳細に説明するように、追跡ボリューム110内の1つ
以上の追跡オブジェクトの位置および/または向きを特定するために、追跡ボリューム1
10内の光-電子センサによって検出できる2つの相互に直交する空間変調光ビーム10
4、105を時間変化的に生成する。
位置追跡システム100が2つ以上の基地局102を備える場合、基地局102は、有
線接続を介して、または無線で互いに同期して、それぞれの基地局102によって生成さ
れる全方向同期パルス103が異なる時間に放出されることを保証し、基地局102によ
って放出されたレーザビーム104、105が追跡ボリューム110にわたって互いに位
相がずれるように掃引されることを保証し得、それにより、各基地局102からの各パル
スおよび各レーザビーム104、105は、各センサによって個別に検出され得る。
WO2016/077401A1に記載されているように、複数の基地局102からの
同期パルス103および/または掃引レーザビーム104、105を互いに区別して、異
なる基地局102からの信号および追跡ボリューム110内の任意の他の干渉光源からの
信号の曖昧性を除去しやすくし得る。例えば、各基地局102からの同期パルス103お
よび/または掃引ビーム104、105は、他の基地局(複数可)102とは異なる光波
長または振幅変調周波数を有し得、または、それらは基地局識別データを符号化し得る。
追跡ボリューム110内のオブジェクトの位置および/または向きは、オブジェクトに
取り付けられた1つ以上のセンサ202を使用して決定することができる。オブジェクト
が1つのセンサ202のみを有する場合、追跡ボリューム110内のオブジェクトの位置
を定義するために2つ以上の基地局102が必要とされる。一方、オブジェクトに複数の
センサ202が提供されてオブジェクト上のセンサ202の相対位置が既知である場合、
単一の基地局102で十分であり得る。
本実施形態では、各センサ202は、図2に示すように、シリコンフォトダイオード2
04と、増幅器/検出器回路205とを備えるが、全方向同期パルス103の特性および
追跡ボリューム110を掃引する空間変調光ビーム104、105の特性に応じて、当業
者に知られている他の好適なセンサ202を採用し得る。
各フォトダイオード204は、基地局102からの光がフォトダイオード204に入射
するときにデジタルパルスを出力する光-デジタル変換器205に接続される。光-デジ
タル変換器205は、増幅器、離散エンベロープ検出器、および比較的少量のヒステリシ
スを伴う高速コンパレータを備え、これは、同期パルス103が入射するたび、または基
地局102からの光ビーム104、105がセンサ202を掃引して通過するたびにデジ
タルパルスを送達する。デジタルパルスは、センサ202がパルス103またはビーム1
04、105によって照射される時間にわたり、それにより、基地局102に対するセン
サ202の向きに関係なく、エッジ位置がパルスまたはビームの通過を正確に表すように
回路が設計される。
光-デジタル変換器205によって生成されたデジタルパルスには、フィールドプログ
ラマブルゲートアレイ(FPGA)207およびマイクロコントローラ208を使用して
タイムスタンプが付され、以下に説明するように、追跡ボリューム110内のセンサ20
2の位置を算出するためのタイミングデータが生成される。
追跡オブジェクトが複数のセンサ202を有する場合、図3に示すように、単一のFP
GA207によって、センサ202のすべてから受信したデジタルパルスが受信され、タ
イムスタンプが付され、集約される。
上記のように、各ビーム104、105内で方位データが符号化される実施形態では、
光-デジタル変換器205はさらに、ビームから復調された方位データを出力するための
データ出力を備え得る。
本実施形態で使用されるインサイドアウト位置追跡システムはしたがって、複数の基地
局102と、基地局102によって放出される掃引レーザビーム104、105によって
定義される追跡ボリューム110内の追跡対象オブジェクト上の少なくとも1つのセンサ
202とを備える。
FPGA207によって出力されるタイミングデータによって表されるように、基地局
102によって発行される全方向同期パルス103と、基地局102からのビーム104
、105のうちの1つがセンサ202を通過する時間との間の経過時間から、基地局10
2とセンサ202との間の角距離を算出することが可能である。センサ202と2つ以上
の基地局102との間の角距離から、基地局102に対するセンサ202の位置を三角測
量することが可能である。各基地局102によって放出される掃引ビーム104、105
によって定義される直交平面内のセンサ202と2つ以上の基地局102との間の角距離
を算出することにより、3次元における基地局102に対するセンサ202の位置を決定
することが可能である。
このように、インサイドアウト位置追跡システム100は、追跡ボリューム110内の
任意の追跡オブジェクトの位置を定義できる内因性座標系を定義することが理解されよう
上記のように、追跡オブジェクトが複数のセンサ202を有する実施形態では、オブジ
ェクト上の複数のセンサ202の相対位置が既知であれば、センサ202のそれぞれと1
つの基地局102との間の角距離を三角測量することにより、追跡ボリューム110内の
オブジェクトの位置決めは1つの基地局102のみを使用して達成できる。
現実世界座標への位置追跡システムの較正
本発明の重要な態様は、位置追跡システム100によって定義される内因性座標系を外
因性現実世界(現場)座標に関連付けることを含む。上記のように、制御点10a、10
b、10cの位置は、現実世界座標系で既知である。追跡システム100はしたがって、
図1に示すような単一のセンサ202を備える較正ツール250を手動で各制御点10a
、10b、10cに順に図4に示されるように移動させ、位置追跡システム100によっ
て定義される内因性座標系における制御点10a、10b、10cの場所を決定すること
により、本発明の1つの実施形態に従って外因性座標系に較正され得る。制御点10a、
10b、10cの場所が内因性座標系と外因性現実世界座標系との両方で既知であると、
追跡システム100の内因性座標系における座標を、外因性現実世界座標系における座標
に、またはその逆に変換するための数学的変換を導出することができる。
好適には、これらの較正ステップは、本発明による較正ソフトウェアがプログラムされ
たコンピュータ(図示せず)を使用して実行され得る。実行されると、較正ソフトウェア
はコンピュータを動作させて、外因性現実世界座標系における制御点10a、10b、1
0cの位置を表す制御点位置データを受信し、各制御点10a、10b、10cに順に配
置されたときの較正ツール250上のセンサ202からのタイミングデータに基づいて位
置追跡システム100によって定義された内因性座標系における制御点の位置を表す制御
点追跡データを受信し、内因性座標系および外因性座標系における制御点10a、10b
、10cの位置を関連付けて座標系間の変換を生成する。
較正ソフトウェアはしたがって、各制御点10a、10b、10cにて位置特定された
ときに建設現場1にて基地局102からの空間変調光ビーム104、105にセンサ20
2が反応する時間を表すタイミングデータを受信および処理して、内因性座標系における
制御点10a、10b、10cの位置を算出することが、コンピュータにより実行可能で
あるマシンコードを備え得る。
図5Aは、本発明の異なる実施形態による、追跡システム100を現実世界座標に較正
する代替方法を示す。
図5Aでは、単一の制御点10が建設現場1の既知の点に位置している。上記のように
、現実世界座標における制御点10の場所は、トータルステーションを使用して、従来の
方法で建設現場1のまたは建設現場1に隣接する既知の場所の2つ以上の点から三角測量
を行って、現場技術者により決定され得る。
複数のセンサ202a、202b、202c…202nを備えたマルチセンサ較正ツー
ル350は、制御点10に配置される。マルチセンサ較正の例は、図6に概略的に示され
る。分かるように、マルチセンサ較正ツール350は、ハンドル部分371を備える本体
370、ハンドル部分371に対して角度が付けられた中間部分372、および平坦な端
面375を備える取り付け部分374を備え、取り付け部分374には、較正ツール35
0を制御点10でオブジェクトに取り付けるために貫通する1つ以上の穴380が形成さ
れている。
図6に見られるように、センサ202a、202b、202c…202nは、ツール3
50の中間部分372上の離間した位置に設けられる。センサ202a、202b、20
2c…202nの相対位置は既知である。上記のように、追跡ボリューム110内のマル
チセンサ較正ツール350の位置および向きは、複数センサ202a、202b、202
c…202nによって生成されたタイミングデータから算出することができる。追跡ボリ
ューム110内の較正ツール350の位置および向き、較正ツール350上のセンサ20
2a、202b、202c…202nの既知の相対的配置、および外因性現実世界座標に
おける制御点10の既知の場所から、外因性現実世界座標系と内因性座標系との間の変換
を算出できる。
建設現場1の現実世界座標系および位置追跡システム100によって定義される内因性
座標系間の変換を生成するためのさらに別の較正方法を、図5Bに示す。
図5Bでは、上記の図1および図4に示されたのと同様に、建設現場1における既知の
場所の3つの制御点10a、10b、10cがある。外因性現実世界座標における制御点
10a、10b、10cの位置は、上記のように従来の測量技術を使用して既知である。
ただし、図4および図5Aを参照して説明された実施形態とは異なり、図5Bでは、セ
ンサ202は、各制御点10a、10b、10cに恒久的に配置される。位置追跡システ
ム100によって定義される内因性座標系の制御点10a、10b、10cでのセンサ2
02の位置は、上記のように、各センサ202が各基地局102によって放出される同期
パルス103および直交掃引ビーム104、105に反応したときを表す各制御点でのセ
ンサ202によって生成されるタイミングデータを使用して各センサ202から各基地局
102までの角距離を算出し、その角距離から各基地局102までの各センサ202の位
置を三角測量することにより算出できる。制御点10a、10b、10cでのセンサ20
2の位置が、内因性座標系と外因性現実世界座標系との両方で既知であると、2つの座標
系の間の好適な数学的変換を推定することができる。
図5Bに示された較正方法の利点は、センサ202を各制御点10a、10b、10c
に恒久的に残すことができ、内因性座標系と外因性座標系との間の較正を定期的にリフレ
ッシュできることである。
セットアウトツール
建物情報モデル(BIM)は従来、現実世界(現場)座標を使用してレイアウトされ、
これは上記のように典型的には地理座標系を使用して表現される。図7は、単に例として
、建設現場1で建設される建物50についての3次元BIMモデルを示している。建物5
0は、外壁51、52、53、54、屋根55、およびその1つが58で示される内部パ
ーティション1を有する。壁52のうちの1つは窓61を含むように設計されている。
建設現場1をセットアウトする場合、建設現場1に関して、3DのBIMモデルから2
次元で作成された建設図面を解釈することが必要であり、それにより、建設図面に示され
るさまざまなタスクが建設現場1の正しい場所で実行される。タスクは、適用される規制
および/または許可に準拠し、タスクが意図したとおりに実行されることを保証し、タス
クが他のタスクに関連して正しい場所で実行されることを保証するように、できる限り正
確に正しい場所で実行されるべきである。上記のように、正しい場所で建設タスクを実行
する際のエラーまたはミスは、建設図面に従うタスクの完了に遅れが生じ得、場合によっ
ては追加費用が発生し得る。
本発明によれば、建設現場1は、図8および図9に示される種類の携帯式セットアウト
ツール400を使用してセットアウトすることができ、これは、ハウジング401に取り
付けられたプローブ421の先端に配置された単一の光-電子センサ402を備える。後
述のようにセンサ402の位置を表示するために、フラットパネルディスプレイ425が
ハウジング420の前壁403に設置される。センサ402は、単一のフォトダイオード
404と、上記の種類の光-デジタル変換器405とを備える。
図9に示すように、光-デジタル変換器405は、変換器406から受信したデジタル
パルスにタイムスタンプを付けるためのプロセッサ408により制御されるFPGA40
7に接続されている。FPGA407、プロセッサ408、およびディスプレイ425は
、ローカルバス409に接続され、ローカルバス409はまた、メモリデバイス410、
記憶デバイス411、および例えばUSBポートなどのデータ入出力デバイス412に接
続される。セットアウトツール400のさまざまな電子部品は、再充電可能なバッテリ4
13により電力が供給され、バッテリ413は、必要に応じてバッテリ413を再充電す
るための電源に接続するための電源コネクタ414を有する。
記憶デバイス411は、セットアウトツール400を動作させるためのマシン実行可能
コードを含む。ツール400が動作するとき、マシン実行可能コードは、プロセッサ40
8によって実行可能であり、較正モードおよび使用時のセットアウトモードを提供する。
較正モード
較正モードでは、セットアウトツール400は、図4に関連して上述した較正ツール2
50と同様の方法で動作する。すなわち、較正モードのセットアウトツールを、建設現場
1の現実世界座標における既知の場所の制御点10a、10b、10cに順次、移動させ
て、位置追跡システム100によって定義された内因性座標系における制御点10a、1
0b、10cの位置を特定し、2つの座標系の間の数学的変換を導出し得、それをそして
、以下に説明するそのセットアウトモードにおいてツール400が使用するためにセット
アウトツール400の記憶デバイス411に保存することができる。
図10は、較正モードでマイクロコントローラ408によって実行される一連の動作を
示す。当業者は、これらの動作を実行するマシン実行可能コードを生成するためにコンパ
イルされ得るコンピュータプログラムを書くために使用され得る多数のコンピュータ言語
に精通しているであろう。
セットアウトツール400のスイッチを入れた後、ステップ452でユーザは較正モー
ドまたはセットアウトモードを選択するよう促される。較正モードを開始すると、マシン
動作可能コードは次に、ステップ454で、図4に示すような建設現場における既知の場
所の第1の制御点10aについての現実世界地理座標系における座標を入力するようにユ
ーザを促す。ユーザはそして、第1の制御点10aに移動し、センサ402をセットアウ
トツール400のプローブの先端におけるセンサ402を第1の制御点10aに正確に配
置し、ステップ456でセットアウトツール400を動作させてセンサ402が正しく第
1の制御点10aに配置されていることを示す。
センサ402は、基地局102によって放出される全方向同期パルス103および掃引
直交ビーム104、105を検出し、光-デジタル変換器405は、ステップ458でツ
ール400内のFPGA407によってタイムスタンプが付された対応するデジタルパル
スを生成する。
FPGAからのタイミングデータに基づいて、ステップ460で、マイクロコントロー
ラ408は、追跡システム100によって定義される内因性座標系におけるセンサ402
の場所を決定する。内因性座標系における第1の制御点10aの場所は、ステップ462
で記憶デバイス411に記憶される。
ステップ464で、マイクロコントローラ408は、少なくとも3つの制御点の場所が
取得されたかどうかをチェックする。3つ未満の制御点の場所が得られている場合、内因
性座標系および外因性座標系の少なくとも3つの制御点の場所が記憶デバイス411に保
存されるまでステップ454~462が繰り返される。本実施形態では、少なくとも3つ
の制御点の場所が必要であるが、いくつかの代替実施形態では、2つの制御点だけで十分
であり得、その場合、内因性座標系および外因性座標系の少なくとも2つの制御点の場所
が記憶デバイス411に保存されるまでステップ454~462が繰り返される。
ステップ466において、内因性座標系における制御点の位置は、外因性現実世界座標
系における制御点の対応する位置に関連しており、2つの座標系間の数学的変換が導出さ
れ、これはそして、ステップ468で記憶デバイス411に記憶される。ツール400は
そして、較正モードを終了する(ステップ470)。
セットアウトモード
ステップ501でセットアウトモードに入ると、図11に示すように、マイクロコント
ローラ408はまず、上記のように、較正モードで算出された数学的変換を記憶デバイス
411からメモリ410にロードする(ステップ502)。
マイクロコントローラ408はそして、上記のように、FPGA407から受信したタ
イミングデータ(ステップ503)が継続的に処理されて、位置追跡システム100によ
って定義される内因性座標系における追跡ボリューム110内のツール400の位置を決
定する、連続「リスニング」モードで動作する(ステップ504)。
変換を使用して、内因性座標系における建設現場1の追跡ボリューム110内のツール
400の位置、より正確にはツールのプローブの先端のフォトダイオード404の位置は
、外因性現実世界座標系に変換される(ステップ505)。
マシンコードは、マイクロコントローラ408を制御して、フラットパネルディスプレ
イ425上の現実世界座標系におけるツール400の位置をリアルタイムで表示する(ス
テップ506)。
ユーザは、本発明の本実施形態によるセットアウトツール400を使用して、基準点の
位置を特定すること、および/または、ツール400から現実世界座標におけるその位置
が正確に知られている建設現場1の場所にマーカを建設図面に従って配置することによっ
て、建設現場1をセットアウトできることを理解されたい。このようにして、建設図面に
マークされる基準点は、現場技術者を建設現場1に呼び出して基準点の位置を特定させる
必要なく、または、トータルステーションを使用してマーカを配置させる必要なく、建設
現場1の現実世界にて位置特定されることができる。
拡張現実ディスプレイを伴う安全帽
別の実施形態では、本発明は、図12に示すように、安全帽600と拡張現実眼鏡70
0とを備える建設現場用のセットアウトツールを提供する。
安全帽600は、以下により詳細に説明するように、複数のセンサ602a、602b
、602c…602nおよび関連する電子回路を備えた本質的に従来型の構造の建設ヘル
メット601を備え、図1に関連して上述したように、建設現場1にセットアップされた
インサイドアウト位置追跡システム100によって定義される追跡ボリューム110内の
安全帽600の位置を追跡する。
本実施形態では、ヘルメット601は、32個のセンサ602a、602b、602c
…602nを備え、ここでn=32であるが、センサの数は本発明に従って変え得ること
が理解されよう。好適には、ヘルメット601は、ヘルメット601の外面全体に分布す
る20~32個のセンサを有し得るが、安全帽600の位置および向きを追跡するには少
なくとも5個のセンサが必要である。
図13に最もよく示されているように、各センサ602a、602b、602c…60
2nは、赤外光に敏感なフォトダイオード604a、604b、604c…604nと、
図2、図3および図9に関して上述した種類の関連する光-デジタル変換器605a、6
05b、605c…605nとを備える。好適には、フォトダイオード604a、604
b、604c…604nは、フォトダイオードへの損傷を避けるためにヘルメット601
の外面に形成された凹部内に配置される。
光-デジタル変換器605a、605b、605c…605nから受信したデジタルパ
ルスは、ローカルデータバス609によりプロセッサ608に接続されたFPGA607
によりタイムスタンプが付され、集約される。ローカルバス609はまた、メモリデバイ
ス610、記憶デバイス611、例えばUSBポートなどのドックコネクタ615を有す
る入出力デバイス612、および、1つ以上の加速度計と1つ以上のジャイロスコープと
の組み合わせを備える仮想現実および拡張現実ヘッドセットに見られる種類の慣性測定ユ
ニット(IMU)618に接続される。典型的なIMUは、ピッチ、ロール、ヨーモード
ごとに1つの加速度計と1つのジャイロスコープとを備えている。
安全帽600の電子部品は、充電式バッテリユニット613により電力供給される。バ
ッテリユニット613を再充電のために電源に接続するために、電源コネクタソケット6
14が提供される。
好適には、安全帽600の電子部品は、ヘルメット601に形成された保護された空洞
625内に収容される。
上述したように、安全帽600は、ヘルメット601の内部に吊り下げバンドを有して
、安全帽600の重量、ならびに頭の上部にわたる任意の衝撃の力を分散させ得る。図1
2に示すように、ヘルメット601は、突出つば619を備え、任意選択的に、イヤープ
ロテクタ、後部視界を広げるためのミラー、ヘッドランプまたはフラッシュライトの取り
付け部、ヘルメット601が脱落しないようにするあごひも、頭の側面を保温する断熱サ
イドパッド、ならびに/または、着色作業員識別用および/もしくは高視認性夜間再帰反
射用のつば619周りに伸ばされるバンドを取り付けられ得る。
有利なことに本実施形態では、ヘルメットは、建設現場1でのユーザの目を保護するだ
けでなく、ゴーグル620の内側に取り付けられた拡張現実眼鏡700を保護するのに役
立つ安全ゴーグル620を備える。図12に示されるように、ゴーグル620は、ゴーグ
ル620をある程度、保護するために、つば619のわずかに後ろに凹むようにヘルメッ
ト601に取り付けられている。拡張現実眼鏡700自体が頑丈で建設用とされている実
施形態においては、安全ゴーグル620が省略され得ることが理解されるであろう。他の
実施形態では、ヘルメット601は安全バイザを備え得る。
拡張現実眼鏡700は、図12に示されるように、2つのテンプルアーム722の間に
取り付けられた成形されて透明な(光学的に透明な)プレート720を備える。本実施形
態では、拡張現実眼鏡700は、センサ602a、602b、602c…602nに対し
て図12に示すような「使用中」位置にしっかりと固定されて、上記のように安全ゴーグ
ル620の背後に配置されるように安全帽600に取り付けられる。拡張現実眼鏡700
は、いくつかの実施形態では、安全帽600から取り外し可能であり得、または、例えば
安全帽600とテンプルアーム722との間のヒンジによって、使用中位置から、ユーザ
の目の前からそれらを取り外す「非使用」位置(図示せず)に、選択的に移動可能であり
得る。
本実施形態では、透明プレート720は、ユーザの目の前に位置するように構成され、
ユーザの右目および左目のそれぞれの前に配置されるように構成された2つの目領域72
3a、723bと、相互接続ブリッジ領域724とを備える。
目領域723a、723bのそれぞれに取り付けられる、または組み込まれるのは、以
下に説明するように、拡張現実メディアコンテンツをユーザに表示しつつ、自身の現実世
界環境を眼鏡700を通してユーザが見ることを可能にするそれぞれの透明または半透明
のディスプレイデバイス725a、725bである。拡張現実眼鏡700はまた、各ディ
スプレイデバイス725a、725bによって表示される画像を見るために、各ディスプ
レイデバイス725a、725bの後ろに配置されたレンズ(図示せず)も備える。いく
つかの実施形態では、レンズは、各ディスプレイデバイス725a、725bにより表示
される画像が無限遠に位置するようにユーザに見えるようにコリメートレンズであり得る
。いくつかの実施形態では、レンズは、各ディスプレイデバイス725a、725bによ
って表示される画像が、無限遠よりも近い拡張現実眼鏡700の前の焦点距離に見えるよ
うに、ディスプレイデバイス725a、725bによって放出される光線を発散させるよ
うに構成され得る。本実施形態では、レンズは、ディスプレイデバイス725a、725
bによって表示される画像がユーザの前方8mの焦点距離に位置するように見えるように
、ディスプレイデバイス725a、725bとともに構成および配置される。
各目領域723a、723b内で、透明プレート720は、安全帽600が装着されて
いるときのユーザの目の位置を追跡するためのそれぞれの視線追跡デバイス728a、7
28bを担持する。特に、視線追跡デバイス728a、728bのそれぞれは、使用中の
ユーザの目に対する拡張現実眼鏡700の動きを検出する目的で、ユーザのそれぞれの目
の瞳孔の中心の位置を検出し、ユーザの頭部に対する拡張現実眼鏡700の位置に関する
ディスプレイ位置データを生成および出力するように構成される。当業者は、US975
4415B2に開示されている種類の光学センサ、およびUS2013/0235169
A1に開示されている種類の位置取得ユニットを含む、使用中のユーザの頭部に対する拡
張現実眼鏡700の位置を追跡するための多数の他の解決策を知っているであろう。ユー
ザの頭部に対する拡張現実眼鏡700の動きを監視することは重要であり、それは、特に
ユーザが身体活動を行っている場合、使用中のユーザの頭部に対して安全帽600が移動
し得るからである。安全帽600は、振動、衝動、またはユーザによる他の種類の動きの
結果として、ユーザの頭部の上で滑り得る。本実施形態では、2つの視線追跡デバイス7
28a、728bが設けられ、それぞれがユーザの眼のそれぞれに関連付けられるが、他
の実施形態では、1つの眼に関連付けられる単一の視線追跡デバイスを採用し得る。
図13を参照すると、透明ディスプレイデバイス725a、725bおよび視線追跡デ
バイス728a、728bは、プロセッサ708、メモリユニット710、記憶デバイス
711、ドックコネクタ715を伴う入出力デバイス712、およびWiFiマイクロコ
ントローラ716と相互接続するためにローカルデータバス709に接続される。電子部
品の電力は、バッテリユニット713を再充電用の電源に接続するための電源コネクタソ
ケット714に接続された再充電可能なバッテリユニット713によって提供される。他
の実施形態では、安全帽600と眼鏡700との両方に単一の電源コネクタソケットを提
供し得、いくつかの実施形態では、位置追跡回路および拡張現実ディスプレイ回路に電力
を供給するために単一の充電式バッテリユニットを提供し得る。
安全帽600上のドックコネクタ615は、眼鏡700のドックコネクタ715に接続
され、安全帽600から眼鏡700に追跡データを提供する。
安全帽600の記憶デバイス611は、安全帽600の動作を制御するためにプロセッ
サ608によって処理できるコンピュータ実行可能マシンコードを含む。上記の携帯式セ
ットアウトツール400と同様に、当業者は、安全帽600を図14のフローチャートに
従って動作させるマシンコードを生成するためにコンパイル可能なソフトウェアを書くた
めに採用され得る多数のコンピュータプログラミング言語に精通しているであろう。
図14のステップ650で安全帽600の電源を入れると、プロセッサ608は、記憶
デバイス611にアクセスして、プロセッサ608による実行のためにマシンコードをメ
モリユニット610にロードする。FPGA607によって出力される集約されたタイム
スタンプ付きデジタルパルスは、ステップ651でマシンコードに従ってプロセッサ60
8によって受信および処理され、図1~図11に関して説明したように、全方向赤外線同
期パルス103を放出し、建設現場1にわたって赤外光104、105の直交ビームを掃
引する建設現場1の1つ以上の基地局102に関して、安全帽600の初期位置および向
きを決定する。
ヘルメット601の表面上のフォトダイオード604a、604b、604c…604
nは、同期パルス103および掃引ビーム104、105に反応し、光-デジタル変換器
605a、605b、605c…605nによって生成されたデジタルパルスは、タイム
スタンプが付され、FPGA607によって集約される。基地局102のうちの1つによ
って放出された同期パルス103と、フォトダイオード604a、604b、604c…
604nのうちの1つに入射する1つの基地局からの掃引ビーム104、105の時間と
の間の経過時間を使用して、1つの基地局102への1つのフォトダイオードの角距離を
決定することができる。基地局102からの掃引ビーム104、105によって作成され
た追跡ボリューム110内の1つのフォトダイオード604a、604b、604c…6
04nの位置は、上記のように、複数の基地局102までの1つのフォトダイオードの角
距離を三角測量することにより、追跡システムにより定義された内因性座標系で算出する
ことができる。安全帽600の向きは、基地局102に対するすべてのフォトダイオード
604a、604b、604c…604nの位置から算出することができる。
参照符号652によって図14に示すように、安全帽600の初期位置および向きを表
す追跡データは、ドッキングコネクタ615にて入出力デバイス612を介して安全帽6
00から出力され、以下で説明するように拡張現実眼鏡700に送信される。
安全帽600のその後の位置追跡は、主にIMUデバイス618を使用して実行され、
IMUデバイス618は、サンプリングレートが1000Hzで、報告レートは500H
zである。滑らかな拡張現実表示を達成するのに安全帽600の位置追跡が十分に迅速で
あれば、本発明の他の実施形態では異なるサンプリングおよび報告レートを使用し得るこ
とを当業者は理解するであろう。
したがって、ステップ653で、建設現場1上の安全帽600の位置および向きは、I
MUデバイス618から受信したIMUデータを処理することによって追跡され、更新さ
れた追跡データは、上記の参照符号654によって示されるように出力される。
当技術分野では、エラーの二重積分によるIMUのドリフトが知られている。ドリフト
は毎秒メートルのオーダーである。本実施例の安全帽600では、FPGA607によっ
て出力されるタイミングデータから導出される、より正確な位置および向きの情報を使用
して、IMUデバイス618によって生成される追跡データのエラーが周期的にスケルチ
される。
上記のように、本実施形態の各基地局102からのビーム104、105は、60Hz
の周波数で建設現場1にわたって掃引される。ステップ655において、プロセッサ60
8は、更新されたタイミングデータについてFGPA607をポーリングする。更新され
たタイミングデータは毎秒60回、利用可能であり、上記で説明したように、基地局10
2に対する安全帽600の位置および向きを決定するためにステップ656で処理される
ことが理解されよう。参照符号657によって示されるように、補正された追跡データは
、安全帽から眼鏡700に出力される。このように、IMUデバイス618によって生成
される追跡データは、FGPA607によって出力されるタイミングデータから導出され
る追跡データと融合される。
眼鏡700の記憶デバイス711は、眼鏡700の動作を制御するためにプロセッサ7
08によって処理することができるコンピュータ実行可能マシンコードを含む。上記のよ
うに、当業者は、眼鏡700を図15のフローチャートに従って動作させるマシンコード
を生成するようコンパイルできるソフトウェアを書くために採用され得る多くのコンピュ
ータプログラミング言語に精通しているであろう。
さらに、記憶デバイス711は、追跡システム100の内因性座標系で定義される基地
局102によって定義される追跡ボリューム110内の安全帽600の位置および向きを
、外因性現実世界座標系に変換するための数学的変換を保存する。変換は、図4、図5A
または図5Bおよび/または図6もしくは図10に関連して上述した方法および/または
装置のいずれかを使用して、本発明に従って取得し得る。変換は、I/Oデバイス712
を介して、またはWiFiマイクロコントローラ716を介して無線で眼鏡700に入力
され、記憶デバイス711に保存され得る。
記憶デバイス711はまた、例えば、図7を参照して上述したBIMモデルなどの建物
情報モデルを表すモデルデータも保存する。上記のように、BIMモデルは外因性現実世
界座標で定義される。変換と同様に、BIMモデルデータは、I/Oデバイス712を介
して、またはWiFiマイクロコントローラ716を介して無線で眼鏡700に入力され
得る。好適には、BIMモデルデータは、インターネットを介してリモートサーバからダ
ウンロードされ得る。
記憶デバイス711はまた、ディスプレイ725a、725bによって表示される画像
がユーザの前に配置される焦点距離を含む、拡張現実眼鏡700のさまざまな物理的およ
び/または光学的特性を表すディスプレイデータも保存する。
図15のステップ750で眼鏡700の電源を入れると、プロセッサ708は、記憶デ
バイス711にアクセスして、プロセッサ708による処理のためにマシンコードをメモ
リデバイス710にロードする。ステップ751および752のそれぞれにおいて、プロ
セッサ708はマシンコードを実行して、変換、BIMモデルデータおよび記憶デバイス
711からのディスプレイデータを取得し、それらをメモリユニット710にロードする
マシンコードは、外因性座標系で定義されるBIMモデルの座標を、記憶デバイス71
1から取得された数学的変換を使用して追跡システム100が利用する内因性座標系に変
換することが、プロセッサ708によって実行可能なモデル位置決めモジュールを含む。
ステップ753ではしたがって、モデルデータは、変換を使用して処理され、BIMモデ
ルを正しく配置および方向付けし、図16に概略的に示すように、内因性座標系にてスケ
ーリングする。
マシンコードはさらに、安全帽および眼鏡のゴーグル620および透明プレート720
を通して見た建設現場1の直接図に重ねられた、コンテキスト内の透明ディスプレイデバ
イス725a、725bに表示するための建物情報モデルの立体仮想3D画像をレンダリ
ングすることが、プロセッサ708によって実行可能な画像レンダリングモジュールを含
む。BIMモデルの仮想3D画像は、変換されたモデルデータ、ディスプレイデータ、安
全帽600から受信した追跡データ652、654、657、および視線追跡デバイス7
28a、728bから受信したディスプレイ位置データに基づいてレンダリングされ、建
設現場1上の安全帽600の位置に対して、およびユーザの頭部に対する安全帽600、
特にユーザの目に対する拡張現実眼鏡700の位置に対して正しいコンテキストでモデル
の画像を表示する。
BIMモデルの仮想3D画像は、当業者に知られているように、ラスタ化、光線追跡ま
たは経路追跡を使用してレンダリングされ得、少なくとも30Hz、好ましくは60Hz
のフレームレートでステップ755で透明ディスプレイ725a、725bに出力される
。本実施例では、BIMモデルの合成画像は、90Hzのフレームレートでリフレッシュ
される。90Hzのフレームレートでは、上記のように500Hzの報告レートを有する
IMU618からの出力に基づく追跡データを使用する必要があるが、これはヘルメット
601上のセンサ602a、602b、602c…602nからのタイミングデータを使
用して60Hzの周波数で修正されることが理解されるであろう。ビーム104、105
のより速いスキャンレートが使用される実施形態では、IMU618を省いて、センサか
ら受信したタイミングデータのみに基づいて追跡データを作成することが可能であり得る
図17に示されるように、BIMモデルの選択された部分のみがユーザ2a、2bに表
示され得る。例として、図17に示されるユーザ2aには、建設現場1で建設される建物
情報モデルによって表される建物50の内部パーティション58が示されている。有利に
は、本発明の方法および装置を使用して、パーティション58の仮想3D画像は、建設現
場1において正しい位置および向きで正しいスケールでユーザに示されている。同様に、
図17におけるユーザ2bには、建設現場1で建設される壁52および窓61が示されて
いる。
このように、本発明の安全帽600および拡張現実眼鏡700は、トータルステーショ
ンを使用して位置特定された基準点を物理的に墨出しすることなく建設現場1をセットア
ウトすることを可能にする。代わりに、建設現場1は、コンテキストにおいて建設現場1
で実行されるタスクを正しい場所および向きでユーザに表示することによりセットアウト
されることができる。本実施形態において、実行されるべきタスクは、図7に示される建
物50の建設であり、個々のサブタスクは、窓61を伴う壁52を建設し、内部パーティ
ション58を建設することを含む。しかし、他の実施形態では、グラフィカルに示すこと
ができる実行されるべき任意のタスクは、拡張現実眼鏡700において仮想形式で表示さ
れ得る。例えば、眼鏡700において仮想形式で表示され得る他のタスクには、溝を掘る
べき場所、敷設または切断されるべきパイプ、オブジェクトを作成するための、たとえば
ケーブルまたはパイプへのアクセスを提供するための1つ以上の穴などが含まれる。
本発明の方法は、単一のユーザに限定されないことが理解されよう。いくつかの実施形
態では、例えば建設現場1などの建設現場の複数の作業員メンバに、上記のような安全帽
600および拡張現実眼鏡700を装備させ得る。各ユーザの眼鏡700は、同じ数学的
変換を使用して較正され、各ユーザには、それぞれの安全帽600におけるセンサ602
a、602b、602c...602nを伴う追跡システム100を使用して決定された
建設現場1上のそれぞれの位置に基づいて、建物情報モデルの一部の個々の仮想画像が表
示される。
図5Bを参照して上述したように、変換が継続的に更新される実施形態では、変換は、
例えば眼鏡700の各セット内のWiFiマイクロコントローラを使用して、すべてのユ
ーザに同時にブロードキャストされることができる。
上記のように、安全帽600の位置は、建設現場1にセットアップされた基地局102
に対するセンサ602a、602b、602c…602nの位置から導出される。BIM
モデルの仮想画像が眼鏡700の透明ディスプレイ725a、725bに表示されるので
、安全帽に対するディスプレイ725a、725bの変位を考慮するためにいくらかの修
正を行わなければならない。これは、眼鏡700が上記のように安全帽600にしっかり
と固定される場合には容易である。しかし、いくつかの実施形態では、眼鏡700のマシ
ンコードは、眼鏡700が安全帽600に対して正しく配置されることを保証するための
位置合わせモジュールを含み得る。この目的のために、その内容が参照により本明細書に
組み込まれるUS2017/0090203A1に開示された位置合わせ方法が、使用さ
れ得る。他の好適な位置合わせ方法も、当業者には明らかであろう。
同様に、透明プレート720またはディスプレイ725a、725bによって作成され
た任意の視覚的人工物を考慮するために調整が必要になり得る。例えば、透明プレート7
20が、目領域723a、723bが近づく、または、透明プレート720を通して見た
ときの建設現場1の直接画像を補正するためのレンズを含むような形状である場合、ディ
スプレイ725a、725bでBIMモデルの合成画像をレンダリングする際にディスプ
レイデータに基づいて何らかの補正がこれについて必要になり得る。
上記のように、本発明によれば、(図19および図20の参照符号1910で示される
)仮想カメラ、したがってディスプレイ725a、725bでユーザに表示される仮想画
像の位置が、ユーザの頭部の安全帽600の任意の動きを考慮して好適に調整されること
を保証にするために、ユーザの頭部に対する拡張現実眼鏡700の位置を追跡することが
重要である。これは、図18~図20に概略的に示されている。
図18は、例としてディスプレイ725aのうちの1つに表示される仮想画像1801
を示す。純粋に例示目的のために、仮想画像1801は、木1802と人1803とを含
む。図18では、ディスプレイ725aは、仮想画像1801が拡張現実眼鏡700によ
ってオーバーレイされる現実世界に対するその正しい場所にそれが現れるように、ユーザ
の目に対して正しく中央に配置される。本発明のコンテキストにおいて、BIMモデルが
、特定の建設タスクが実行される場所をユーザに正確に示すために、建設現場1に対して
その正しい位置および向きで表示されることが重要であることが理解されよう。
使用中、安全帽600は、ユーザの頭部に対して移動しやすいことが理解されよう。こ
れは、例えば建設タスクなどの身体活動を実行する際のユーザの身体運動の結果であり得
る。例えば、ユーザは、自身が実行しているさまざまな建設タスクによって、自身の体を
介して伝達される衝動または振動にさらされ得、その結果、ユーザの頭部に対する安全帽
600の滑りが生じ得る。図19に示すように、以下で説明する仮想画像の対応する調整
なしでのユーザの目1905に対するディスプレイ725aの移動があると、仮想カメラ
1910がユーザの目1905ともはや整列しないような仮想カメラ1910の変位がも
たらされ、その結果、仮想画像1801は、ユーザがディスプレイ725aを通して見る
ことができる現実世界に対して不正確な位置に表示されるであろう。図19において、参
照符号1801は、ユーザの頭部に対する安全帽600の動きにより、ユーザに対して誤
って表示される仮想画像の位置を示し、参照符号1901は、現実世界に対する仮想画像
の正しい位置を示す。
使用中のユーザの頭部に対する安全帽600の動きを補償するために、視線追跡デバイ
ス728a、728bを使用して、ユーザの頭部に対する安全帽600の位置が監視され
る。視線追跡デバイス728a、728bは、ユーザの頭部に対する安全帽600の位置
、より具体的にはユーザの目1905に対する拡張現実眼鏡700の位置を示す上記のデ
ィスプレイ位置データを生成する。このディスプレイ位置データは、ディスプレイデータ
および追跡データ652、654、657を用いてプロセッサ708によって処理され、
実効的に仮想カメラ1910をユーザの目1905に位置合わせしたままとすることによ
り図20に示すように建設現場に対してその正しい位置にBIMモデルの仮想画像をレン
ダリングする。
このプロセスは、図21に概略的に示され、図21は、内因性座標系での安全帽600
からのヘッドセット追跡データ2104、視線追跡デバイス728a、728bによって
生成されたディスプレイ位置データ2106、および拡張現実眼鏡700の物理的/光学
的特性を表すディスプレイデータ2110を融合し、拡張現実眼鏡700による表示のた
めに、座標変換エンジン2108によって内因性座標系で定義されるBIMモデルの仮想
画像を生成する、本発明による電子制御システム2102による処理を示す。このように
、本発明の本実施形態は、建設現場1に対するBIMモデルの仮想画像を約3mmまたは
それより良好な精度で表示すると同時に、拡張現実ディスプレイシステムに対して内因性
の仮想カメラをユーザの目との適切な位置合わせ状態に維持し、現実世界と仮想画像との
間の視差を回避することを目的とする。
本発明のヘッドセットは、例えばmmの精度で、実行される建設タスクを表してBIM
モデルの仮想画像を建設現場の作業員に表示しようとすることを当業者は理解するであろ
う。仮想画像を、BIMモデルで定義された建設現場で、作業員に対するコンテキストで
その正しい位置および向きに表示できる。位置追跡システムの内因性追跡座標系と外因性
現実世界座標系との間の座標変換により、BIMモデルを適切なコンテキストで作業員に
表示できる。実施形態に従ってユーザの頭部に対する拡張現実ディスプレイの位置を検出
するために視線追跡または他の方法を使用することにより、現場作業員が行う肉体労働な
どの身体活動によるディスプレイの小さな動きまたは向きの変化が考慮され得、仮想モデ
ルはBIMモデルで定義されたその正しい場所にとどまり得る。

Claims (20)

  1. 建設現場の外因性現場座標系に位置付けられ、方向付けられた建物情報モデル(BIM)の仮想画像をユーザに表示するためのヘッドセットであって、
    ユーザが着用し、その外面に分布された複数の位置追跡センサを有するように構成された安全帽であって、前記位置追跡センサは、赤外線を検出するフォトダイオードを含み、前記位置追跡センサは、前記安全帽の位置および向きを決定できるようにする建設現場での位置追跡システムの1つ以上の基地局によって放出された1つ以上の赤外線信号に対する前記複数のセンサの反応を表すセンサデータを出力するように構成された、安全帽と、
    前記安全帽に取り付けられた一組の安全ゴーグルと、
    前記位置追跡センサに対して固定された前記ユーザの視野内の使用中位置を有するディスプレイアセンブリを含む拡張現実ディスプレイシステムであって、前記ディスプレイアセンブリは、前記一組の安全ゴーグルの内側に取り付けられており、少なくとも1つのディスプレイを含み、前記ユーザに前記仮想画像を表示することができつつ、前記ユーザは前記ディスプレイアセンブリを通して自身の周囲を見ることができ、前記拡張現実ディスプレイシステムは、前記建物情報モデルの前記仮想画像を表す画像データを受信し、前記ディスプレイに前記仮想画像を表示するように構成される、拡張現実ディスプレイシステムと、
    電子制御システムと
    を備え、
    前記電子制御システムは、前記位置追跡システムによって定義された内因性座標系内の前記建設現場での前記安全帽の前記場所および向きを前記センサデータから決定し、それを表すヘッドセット追跡データを出力するように構成されたヘッドセット追跡システムと、変換に基づいて前記内因性座標系と前記外因性座標系との間で変換するように構成された座標変換エンジンとを含み、前記変換は前記外因性座標系の既知の場所の1つ以上の制御点の座標を、前記内因性座標系のそれらの対応する座標に関連付けることによって導出され、前記内因性座標系における前記1つ以上の制御点の前記座標は、前記位置追跡システムを使用して少なくとも1つのセンサから受信したセンサデータから導出され、
    前記電子制御システムは、前記ヘッドセット追跡データ、および前記外因性座標系で定義された前記建物情報モデルを表すモデルデータを受信し、前記座標変換エンジンを使用して前記モデルデータを処理して前記内因性座標系で定義された導出モデルデータを生成し、前記建設現場での前記安全帽の前記位置および向きに対する前記建物情報モデルの仮想画像をレンダリングするために前記ヘッドセット追跡データを使用し、前記仮想画像を表す前記画像データを生成し、前記ユーザが前記ディスプレイで見るために前記拡張現実ディスプレイシステムに前記画像データを送信するように構成される、
    ヘッドセット。
  2. 前記ヘッドセットは、前記ユーザの頭部に対する前記ディスプレイの前記位置を検出し、それを表すディスプレイ位置データを出力するディスプレイ位置センサを更に備え、前記電子制御システムは、前記ディスプレイ位置データを受信し、前記建設現場での前記安全帽の前記位置および向きに対する前記建物情報モデルの前記仮想画像をレンダリングするために前記ヘッドセット追跡データと共に前記ディスプレイ位置データを使用するように構成され、前記ディスプレイ位置センサは、少なくとも1つの視線追跡デバイスを備える、請求項1に記載のヘッドセット。
  3. 前記位置追跡システムは、掃引ビーム光学追跡システムを備える、請求項1又は2に記載のヘッドセット。
  4. 前記位置追跡システムは、前記建設現場で静止している少なくとも1つの電磁放射源を備え、前記1つ以上のセンサの少なくとも1つは、前記少なくとも1つのセンサから前記静止源までの角距離を示す前記電磁放射の特性を検出または測定するように構成される、請求項1~3のいずれかに記載のヘッドセット。
  5. 前記ヘッドセット追跡システムは、さらに、前記建設現場で基準点の位置を特定するために、前記ヘッドセットの前記位置を追跡するように構成される、請求項1~4のいずれかに記載のヘッドセット。
  6. 前記ヘッドセット追跡データは、センサの組み合わせから受信したセンサデータに基づいており、前記複数の位置追跡センサに加えて少なくとも1つの慣性測定ユニットを含み、前記安全帽の前記位置および向きは、前記少なくとも1つの慣性測定ユニットからの動きデータと前記複数の位置追跡センサから得られる位置データとを融合させることによって導出される、請求項1~5のいずれかに記載のヘッドセット。
  7. 前記少なくとも1つの慣性測定ユニットは、第1更新頻度を有し、前記複数の位置追跡センサは、第2更新頻度を有し、前記第1更新頻度は、前記第2更新頻度よりも高い、請求項6に記載のヘッドセット。
  8. ヘッドセット内で建設現場の外因性現場座標系を参照して配置および方向付けされた建物情報モデル(BIM)の仮想画像を表示する方法であって、前記ヘッドセットは、ユーザが着用し、その外面に分布された複数の位置追跡センサを有するように構成された安全帽であって、前記位置追跡センサは赤外線を検出するフォトダイオードを含む安全帽と、前記安全帽に取り付けられた一組の安全ゴーグルと、前記位置追跡センサに対して固定された前記ユーザの視野内の使用中位置を有するディスプレイアセンブリを含む拡張現実ディスプレイシステムであって、前記ディスプレイアセンブリは、前記一組の安全ゴーグルの内側に取り付けられており、少なくとも1つのディスプレイを含み、前記ユーザに前記仮想画像を表示することができつつ、前記ユーザは前記ディスプレイアセンブリを通して自身の周囲を見ることができる、拡張現実ディスプレイシステムと、電子制御システムとを備え、前記方法は、
    前記ヘッドセット追跡システムで、前記建設現場にて位置追跡システムの1つ以上の基地局によって放出された1つ以上の赤外線信号に対する前記複数の位置追跡センサの反応を表すセンサデータに基づいて、前記位置追跡システムによって定義された内因性座標系で、前記建設現場での前記安全帽の前記場所および向きを決定することと、
    座標変換エンジンで、前記外因性座標系の既知の場所の1つ以上の制御点の座標を前記内因性座標系のそれらの対応する座標に関連付けることにより導出される変換に基づいて、前記内因性座標系と前記外因性座標系との間で変換することであって、前記内因性座標系における前記1つ以上の制御点の前記座標が、前記位置追跡システムを使用して、少なくとも1つのセンサから受信したセンサデータに基づいて決定される、変換することと、
    前記電子制御システムで、前記ヘッドセット追跡システムからヘッドセット追跡データを受信し、前記外因性座標系で定義された前記建物情報モデルを表すモデルデータを受信し、前記座標変換エンジンを使用して前記モデルデータを処理して前記内因性座標系で定義された導出モデルデータを生成し、前記ヘッドセット追跡データを使用して前記安全帽の前記位置および向きに対する前記建物情報モデルの仮想画像をレンダリングし、前記仮想画像を表す画像データを生成し、前記画像データを前記拡張現実表示システムに送信して、前記ユーザが前記建物情報モデルの仮想画像として見ることができるようにすることと
    を備える方法。
  9. 前記ヘッドセットは、前記ユーザの頭部に対する前記ディスプレイの前記位置を検出する少なくとも1つのディスプレイ位置センサを備え、前記方法は、前記電子制御システムにおいて、前記ディスプレイ位置センサからディスプレイ位置データを受信することと、前記ヘッドセットユーザの目に対する前記安全帽の前記位置及び方向に対する前記建物情報モデルの仮想画像をレンダリングするために前記ヘッドセット追跡データ及び前記ディスプレイ位置データを使用することと
    を備える請求項8に記載の方法。
  10. 前記ディスプレイ位置センサは、視線追跡デバイスを備える、請求項9に記載の方法。
  11. 前記位置追跡システムは、掃引ビーム光学追跡システムを備える、請求項8~10のいずれかに記載の方法。
  12. リモートサーバから前記ヘッドセットにおける前記電子制御システムに前記BIMデータをダウンロードすることをさらに備える、請求項8~11のいずれかに記載の方法。
  13. リモートサーバから前記変換をダウンロードし、それを前記ヘッドセットに保存することをさらに備える、請求項8~12のいずれかに記載の方法。
  14. 前記位置追跡システムは、前記建設現場で静止している少なくとも1つの電磁放射源を備え、前記1つ以上のセンサの少なくとも1つは、前記少なくとも1つのセンサから前記静止源までの角距離を示す前記電磁放射の特性を検出または測定するように構成される、請求項8~13のいずれかに記載の方法。
  15. コンピュータ化されたデバイスによって実行されると、前記コンピュータ化されたデバイスに請求項8~14のいずれかに記載の方法を実行させる、命令のセットを備える、コンピュータプログラム。
  16. 建設タスクの検証又は建設現場のセットアウトに使用するヘッドセットであって、安全帽の外面に分布された複数の位置追跡センサを有する安全帽であって、前記位置追跡センサは、赤外線を検出するフォトダイオードを含み、前記位置追跡センサは、前記安全帽の位置および向きを決定できるようにする建設現場での位置追跡システムの1つ以上の基地局によって放出された1つ以上の赤外線信号に対する前記複数のセンサの反応を表すセンサデータを出力するように構成された安全帽、前記安全帽に取り付けられた一組の安全ゴーグル、ユーザが見るときに建物情報モデル(BIM)の仮想画像を表示するための1つ以上のディスプレイを含み、かつ、前記一組の安全ゴーグルの内側に取り付けられたディスプレイアセンブリを組み込んだ拡張現実眼鏡、および電子制御システムを有し、前記電子制御システムは、
    前記内因性座標系における前記建設での前記安全帽の前記位置及び向きを算出するために、前記安全帽の前記複数の位置追跡センサから受信したセンサデータを処理する追跡エンジンと、
    外因性現実世界座標系で定義された前記建物情報モデルを表すモデルデータを受信および処理して、前記外因性座標系と前記位置追跡システムによって定義された内因性座標系との間の変換を使用して前記内因性座標系で前記モデルを配置および方向付けするモデル位置決めエンジンと、
    前記内因性座標系で前記建設現場の前記安全帽の前記位置および向きを表す追跡データを受信し、前記安全帽の前記位置および向きに対する前記モデルの仮想画像をレンダリングし、前記モデルの仮想画像としてユーザが見ることができる前記1つ以上のディスプレイに前記画像を送信する画像レンダリングエンジンと
    を備え、
    前記追跡データは、前記位置追跡システムにより放出される1つ以上の信号に対する前記センサの前記反応を表すセンサデータから導出され、
    前記変換は、前記外因性座標系の既知の場所の1つ以上の制御点の前記座標を、前記内因性座標系のそれらの対応する座標に関連付けることによって導出され、前記内因性座標系の前記1つ以上の制御点の前記座標は、前記1つ以上の赤外線信号に対する前記1つ以上の制御点に配置された1つ以上のセンサの前記反応を表すセンサデータから導出される、
    ヘッドセット。
  17. 前記建設現場において前記位置追跡システムにより放出される前記1つ以上の信号は、1つ以上の基地局により放出される電磁放射からなり、前記1つ以上のセンサの少なくとも1つは、少なくとも1つ以上の基地局からの角距離を示す電磁放射の特性を検出又は測定するように構成されている、請求項16に記載のヘッドセット。
  18. 前記電子制御システムは、1つ以上のプロセッサと、1つ以上のメモリユニットと、前記変換を使用して前記内因性座標系に前記モデルを配置して方向付けするために前記モデルデータを処理することが前記1つ以上のプロセッサによって実行可能なモデル位置決めモジュール、前記安全帽の前記位置および向きに対して前記BIMモデルの前記仮想画像をレンダリングするための前記追跡データおよびモデルデータを処理することが前記1つ以上のプロセッサで実行可能な画像レンダリングモジュール、並びに、前記安全帽上の前記複数の位置追跡センサから受信した前記センサデータを処理して前記内因性座標系における前記建設現場での前記安全帽の前記位置および向きを算出することが前記1つ以上のプロセッサにより実行可能な追跡モジュールを備えるソフトウェアを保存する少なくとも1つのデータ記憶デバイスと、を備える
    請求項16又は17に記載のヘッドセット。
  19. 請求項1~7もしくは請求項16~18のいずれかに記載のヘッドセットを使用することを備える、建設方法。
  20. 請求項8~14のいずれかに記載の方法を備える、建設方法。
JP2023113061A 2017-09-06 2023-07-10 建物情報モデルの仮想画像の表示 Pending JP2023156279A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB1714349.6 2017-09-06
GBGB1714349.6A GB201714349D0 (en) 2017-09-06 2017-09-06 A method and equipment for setting out a construction site
PCT/GB2018/052529 WO2019048866A1 (en) 2017-09-06 2018-09-06 DISPLAYING A VIRTUAL IMAGE OF A CONSTRUCTION INFORMATION MODEL
JP2020535316A JP2020533721A (ja) 2017-09-06 2018-09-06 建物情報モデルの仮想画像の表示

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020535316A Division JP2020533721A (ja) 2017-09-06 2018-09-06 建物情報モデルの仮想画像の表示

Publications (1)

Publication Number Publication Date
JP2023156279A true JP2023156279A (ja) 2023-10-24

Family

ID=60050634

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020535316A Pending JP2020533721A (ja) 2017-09-06 2018-09-06 建物情報モデルの仮想画像の表示
JP2022203330A Pending JP2023051993A (ja) 2017-09-06 2022-12-20 建物情報モデルの仮想画像の表示
JP2023113061A Pending JP2023156279A (ja) 2017-09-06 2023-07-10 建物情報モデルの仮想画像の表示

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2020535316A Pending JP2020533721A (ja) 2017-09-06 2018-09-06 建物情報モデルの仮想画像の表示
JP2022203330A Pending JP2023051993A (ja) 2017-09-06 2022-12-20 建物情報モデルの仮想画像の表示

Country Status (13)

Country Link
US (3) US11158127B2 (ja)
EP (2) EP3679321B1 (ja)
JP (3) JP2020533721A (ja)
CN (1) CN111433561B (ja)
AU (1) AU2018330755B2 (ja)
CA (1) CA3074940A1 (ja)
DK (1) DK3679321T3 (ja)
ES (1) ES2924179T3 (ja)
GB (1) GB201714349D0 (ja)
PL (1) PL3679321T3 (ja)
PT (1) PT3679321T (ja)
SG (1) SG11202002052YA (ja)
WO (1) WO2019048866A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9726885B2 (en) 2015-03-31 2017-08-08 Timothy A. Cummings System for virtual display and method of use
US11210864B2 (en) * 2018-06-01 2021-12-28 Immersal Oy Solution for generating virtual reality representation
WO2020156890A1 (de) * 2019-01-28 2020-08-06 Holo-Light Gmbh Verfahren zur überwachung einer baustelle
JP7234011B2 (ja) * 2019-04-02 2023-03-07 株式会社トプコン 位置情報表示装置および測量システム
US11265487B2 (en) 2019-06-05 2022-03-01 Mediatek Inc. Camera view synthesis on head-mounted display for virtual reality and augmented reality
CN114829874A (zh) * 2019-07-31 2022-07-29 虚拟线上有限公司 沿区域中路径来对齐物品的系统
US11786407B2 (en) * 2019-08-09 2023-10-17 Associated Universities, Inc. Dynamic vision enabling visor
US20220351449A1 (en) * 2019-09-24 2022-11-03 XVI Inc. Animation production system
JP7341861B2 (ja) * 2019-11-11 2023-09-11 株式会社トプコン アイウェア装置を用いた管理システムおよび管理方法
JP2021100222A (ja) 2019-12-23 2021-07-01 ソニーグループ株式会社 端末装置、アプリケーションサーバ、受信方法及び送信方法
CN111141473A (zh) * 2020-01-17 2020-05-12 上海索辰信息科技有限公司 产品振动试验数据的实时显示方法及系统
US11481930B2 (en) * 2020-01-21 2022-10-25 Trimble Inc. Accurately positioning augmented reality models within images
US11222475B2 (en) * 2020-01-22 2022-01-11 Procore Technologies, Inc. Computer systems and methods for navigating building information models in an augmented environment
JP2021140445A (ja) * 2020-03-05 2021-09-16 株式会社トプコン 情報処理装置、推論モデル構築方法、情報処理方法、推論モデル、プログラム、及び記録媒体
JP2021177157A (ja) * 2020-05-08 2021-11-11 株式会社トプコン アイウェア表示システム
JP2022007185A (ja) * 2020-06-25 2022-01-13 株式会社トプコン アイウェア表示システム
US11626001B1 (en) * 2020-07-28 2023-04-11 United Services Automobile Association (Usaa) Wearable system for detection of environmental hazards
IT202000020302A1 (it) * 2020-08-24 2022-02-24 Youbiquo Sistema e metodo per la misura della direzione e del colore prevalente della luce incidente su di una persona
US11557046B2 (en) 2020-09-30 2023-01-17 Argyle Inc. Single-moment alignment of imprecise overlapping digital spatial datasets, maximizing local precision
WO2022129999A1 (en) 2020-12-17 2022-06-23 Elios S.R.L. Method and system for georeferencing digital content in a scene of virtual reality or augmented/mixed/extended reality
CN112561987B (zh) * 2020-12-18 2023-03-24 万翼科技有限公司 人员位置显示方法及相关装置
FR3118237B1 (fr) * 2020-12-21 2023-10-06 Orange Procede de mise en correspondance entre un batiment et son modele numerique
GB2603496A (en) 2021-02-05 2022-08-10 Xyz Reality Ltd Aligning multiple coordinate systems for information model rendering
GB2605442B (en) * 2021-04-01 2023-03-22 Xyz Reality Ltd Configuration method for the display of a building information model
JP7011746B1 (ja) * 2021-05-31 2022-01-27 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
CN115112104A (zh) * 2021-08-17 2022-09-27 上海环创安装工程集团有限公司 一种建筑施工现场测绘放样方法
CN113919634A (zh) * 2021-09-07 2022-01-11 中建三局第三建设工程有限责任公司 一种基于bim的现场支吊架点位的ar放样方法及系统
GB2613155A (en) 2021-11-24 2023-05-31 Xyz Reality Ltd Matching a building information model
CN114398118B (zh) * 2021-12-21 2023-03-24 深圳市易图资讯股份有限公司 基于空间锚的智慧城市的智能定位系统及方法
CN114224010A (zh) * 2022-02-09 2022-03-25 福建汇川物联网技术科技股份有限公司 一种安全帽、使用方法及建筑模型投影系统
GB2619966A (en) 2022-06-24 2023-12-27 Xyz Reality Ltd Augmented reality for a construction site with multiple devices

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5100229A (en) * 1990-08-17 1992-03-31 Spatial Positioning Systems, Inc. Spatial positioning system
JPH07154829A (ja) * 1993-11-25 1995-06-16 Matsushita Electric Ind Co Ltd 眼鏡型映像表示装置
US6094625A (en) 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
JP3653196B2 (ja) * 1998-06-30 2005-05-25 飛島建設株式会社 仮想現実感を利用した施工支援情報システム。
US6501543B2 (en) 2000-02-28 2002-12-31 Arc Second, Inc. Apparatus and method for determining position
US6381006B1 (en) 2000-07-12 2002-04-30 Spectra Precision Ab Spatial positioning
JP2006252468A (ja) * 2005-03-14 2006-09-21 Canon Inc 画像処理方法、画像処理装置
JP2008018015A (ja) * 2006-07-12 2008-01-31 Toshiba Corp 医用ディスプレイ装置及び医用ディスプレイシステム
US7592911B1 (en) 2006-12-12 2009-09-22 Accu-Spatial Llc Construction hard hat having electronic circuitry
EP1980999A1 (en) 2007-04-10 2008-10-15 Nederlandse Organisatie voor Toegepast-Natuuurwetenschappelijk Onderzoek TNO An augmented reality image system, a method and a computer program product
JP2010232718A (ja) * 2009-03-25 2010-10-14 Olympus Corp 頭部装着型画像表示装置
US8690750B2 (en) * 2010-05-14 2014-04-08 Wesley W. O. Krueger System and method for measuring and minimizing the effects of vertigo, motion sickness, motion intolerance, and/or spatial disorientation
JP5414946B2 (ja) 2011-06-16 2014-02-12 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
US9070216B2 (en) 2011-12-14 2015-06-30 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
WO2014017348A1 (ja) * 2012-07-24 2014-01-30 ソニー株式会社 画像表示装置および画像表示方法
US9367962B2 (en) * 2013-10-22 2016-06-14 Topcon Positioning Systems, Inc. Augmented image display using a camera and a position and orientation sensor
WO2015098807A1 (ja) * 2013-12-24 2015-07-02 チームラボ株式会社 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
US9264479B2 (en) 2013-12-30 2016-02-16 Daqri, Llc Offloading augmented reality processing
US9865058B2 (en) 2014-02-19 2018-01-09 Daqri, Llc Three-dimensional mapping system
US9754415B2 (en) 2014-03-27 2017-09-05 Microsoft Technology Licensing, Llc Display relative motion compensation
US20150317418A1 (en) * 2014-05-02 2015-11-05 Honeywell International Inc. Providing three-dimensional monitoring of a facility
US9965030B2 (en) * 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
JP6635037B2 (ja) * 2014-08-01 2020-01-22 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US9665985B2 (en) 2014-08-15 2017-05-30 Daqri, Llc Remote expert system
US10338186B2 (en) 2014-11-10 2019-07-02 Valve Corporation Positional tracking systems and methods
WO2016116733A1 (en) * 2015-01-20 2016-07-28 Milan Momcilo Popovich Holographic waveguide lidar
JP6586991B2 (ja) * 2015-02-23 2019-10-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9726885B2 (en) * 2015-03-31 2017-08-08 Timothy A. Cummings System for virtual display and method of use
JP6630515B2 (ja) 2015-08-25 2020-01-15 株式会社トプコン 位置誘導装置、位置誘導方法、プログラム
US9599825B1 (en) * 2015-09-30 2017-03-21 Daqri, Llc Visual indicator for transparent display alignment
US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
JP2017135605A (ja) * 2016-01-28 2017-08-03 コニカミノルタ株式会社 画像表示装置
US20180128897A1 (en) 2016-11-08 2018-05-10 BreqLabs Inc. System and method for tracking the position of an object
US10706629B2 (en) * 2018-06-15 2020-07-07 Dell Products, L.P. Coordinate override in virtual, augmented, and mixed reality (xR) applications

Also Published As

Publication number Publication date
GB201714349D0 (en) 2017-10-18
EP3679321A1 (en) 2020-07-15
EP4119894A1 (en) 2023-01-18
US11158127B2 (en) 2021-10-26
AU2018330755B2 (en) 2022-09-29
CN111433561B (zh) 2022-08-23
DK3679321T3 (da) 2022-07-18
EP3679321B1 (en) 2022-06-01
JP2023051993A (ja) 2023-04-11
ES2924179T3 (es) 2022-10-05
SG11202002052YA (en) 2020-04-29
US20200286289A1 (en) 2020-09-10
PT3679321T (pt) 2022-08-01
CA3074940A1 (en) 2019-03-14
JP2020533721A (ja) 2020-11-19
WO2019048866A1 (en) 2019-03-14
CN111433561A (zh) 2020-07-17
AU2018330755A1 (en) 2020-04-16
PL3679321T3 (pl) 2022-10-03
US11847747B2 (en) 2023-12-19
US11694406B2 (en) 2023-07-04
US20220108529A1 (en) 2022-04-07
US20220301265A1 (en) 2022-09-22

Similar Documents

Publication Publication Date Title
JP2023156279A (ja) 建物情報モデルの仮想画像の表示
CN109556580B (zh) 测绘仪器、ar系统和相对于参照系定位ar装置的方法
TWI522650B (zh) 用於擴增實境裝置之即時導正系統、方法及電腦程式產品
JP2020533721A5 (ja)
US11269400B2 (en) Positioning system
JP2019039892A (ja) 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム
JP2020169855A (ja) 位置情報表示装置および測量システム
US20230410385A1 (en) Spatially-Aware Tool System
GB2605442A (en) Configuration method for the display of a building information model
CA3208119A1 (en) Aligning multiple coordinate systems for information model rendering
US20210142576A1 (en) Management system and management method using eyewear device
KR20190073429A (ko) 표적의 위치 탐지를 보조하기 위한 방법 및 이러한 방법의 구현을 가능하게 하는 관측 장치
JP2022140903A (ja) 測量デバイスおよびこれを用いた測量方法
KR20220029835A (ko) 현실공간 분할 매칭 3d공간정보 구축 시스템
JP2012059079A (ja) 付加情報表示システム、付加情報表示制御方法、および付加情報表示制御プログラム
US11663786B2 (en) Eyewear display system
WO2023276216A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6733927B1 (ja) 空間認識システム、空間認識装置、空間認識方法及びプログラム
JP2024027006A (ja) 測量システム、測量方法及び測量用プログラム
JP2023017199A (ja) 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230710