JP2021177157A - アイウェア表示システム - Google Patents

アイウェア表示システム Download PDF

Info

Publication number
JP2021177157A
JP2021177157A JP2020082865A JP2020082865A JP2021177157A JP 2021177157 A JP2021177157 A JP 2021177157A JP 2020082865 A JP2020082865 A JP 2020082865A JP 2020082865 A JP2020082865 A JP 2020082865A JP 2021177157 A JP2021177157 A JP 2021177157A
Authority
JP
Japan
Prior art keywords
deviation
scanner
data
eyewear
design data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020082865A
Other languages
English (en)
Other versions
JP2021177157A5 (ja
Inventor
武志 菊池
Takeshi Kikuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2020082865A priority Critical patent/JP2021177157A/ja
Priority to US17/313,213 priority patent/US20210348922A1/en
Priority to EP21172966.0A priority patent/EP3910407A1/en
Publication of JP2021177157A publication Critical patent/JP2021177157A/ja
Publication of JP2021177157A5 publication Critical patent/JP2021177157A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/12Geometric CAD characterised by design entry means specially adapted for CAD, e.g. graphical user interfaces [GUI] specially adapted for CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/18Details relating to CAD techniques using virtual or augmented reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Abstract

【課題】 CAD設計データが現場の状況と異なる場合にも、現場の状況に応じた漏れのない点群データの観測を支援する技術を提供する。【解決手段】 表示システム(1)は、3次元点群データを取得するスキャナ(2);ディスプレイ(41)と、位置および方向を取得可能なアイウェア装置(4);および、観測現場のCAD設計データと、現場とのズレを検出するズレ検出装置(49);を備え、スキャナ(2)の位置および方向に関する情報と、アイウェア装置(4)の位置および方向に関する情報と、ズレ検出装置(49)の位置および方向に関する情報とを受信して、スキャナ(2)の座標空間、アイウェア装置(4)の座標空間、ズレ検出装置(49)の座標空間、およびCAD設計データの座標空間とを同期して、同期された座標空間におけるズレを算出し、ズレの算出結果に基づいて、CAD設計データを修正し、修正したCAD設計データを、ディスプレイ(41)に表示する。【選択図】図2

Description

本発明は、アイウェア表示システムに関し、より詳細には、地上設置型スキャナを用いた点群データ観測を支援するためのアイウェア表示システムに関する。
従来、地上設置型スキャナを用いた点群データの観測が知られている(例えば特許文献1参照)。点群データ観測では、所望の観測精度を達成するために、点群密度を確保する必要がある。このため、所望の点群密度を確保するために、データ取得領域がある程度重なりあうように、スキャナの設置点を設定して、複数の地点から点群データを観測する必要がある。
特開2018−28464号公報
しかし、スキャナによる点群データ観測は、データの後処理を前提とする。このため、複数の地点から点群データを観測したときに、測定漏れや点群の重なり合いが不十分な箇所があると、再度現場に赴いて再測を行う必要があるという問題があった。
そこで、発明者らは、アイウェア表示装置と、観測現場のCAD(Computer・Aided・Design)設計データとを同じ座標空間系に変換して、実際の現場の風景(以下、現物という。)に重ねて、CAD設計データのワイヤフレームを表示させて、点群データの取得状況や、観測データ予測をアイウェア装置に表示して、漏れのないデータの取得の支援に利用することを検討した。(なお、本明細書において、座標空間の異なる装置または設計データにおける位置および方向に関する情報の座標空間を一致させ、共通の基準点を原点とする空間で、それぞれの装置に関する相対位置・相対方向を管理することを同期という。)
しかし、実際の現場では、新たに設置された構造物、人、車、樹木や電線等の、CAD設計データからは予測できない事態が生じる場合がある。このような場合には、CAD設計データを、うまく利用できない虞があるという問題があった。
本発明は、かかる事情に鑑みてなされたものであり、CAD設計データが現場の状況と異なる場合にも、現場の状況に応じた漏れのない点群データの観測を支援する技術を提供することを目的とする。
上記目的を達成するために、本発明の1つの態様に係る表示システムは、測距光を水平および鉛直に走査して照射点の距離および角度を測定し、点群データを取得する点群データ取得部を備えるスキャナ;ディスプレイと、装置の位置を検出する相対位置検出センサと、装置の向きの方向を検出する相対方向検出センサとを備えるアイウェア装置;観測現場のCAD設計データを備える記憶装置;および、前記CAD設計データと、現場とのズレを検出するズレ検出装置;を備え、前記スキャナの位置および方向に関する情報と、前記アイウェア装置の位置および方向に関する情報と、前記ズレ検出装置の位置および方向に関する情報とを受信して、前記スキャナの座標空間、前記アイウェア装置の座標空間、前記ズレ検出装置の座標空間、および前記CAD設計データの座標空間とを同期する同期計測部と、同期された座標空間における前記ズレを算出するズレ算出部、前記ズレの算出結果に基づいて、前記CAD設計データを修正して修正CAD設計データを生成する設計データ修正部とを備えるデータ処理装置を備え、前記スキャナ、前記アイウェア装置、前記記憶装置および前記ズレ検出装置は、前記データ処理装置にデータ入出力可能に接続されており、前記同期計測部は、前記修正CAD設計データを前記アイウェア装置から見たワイヤフレームに変換し、前記アイウェア装置は、前記修正CAD設計データの前記ワイヤフレームを前記ディスプレイに表示することを特徴とする。
上記態様において、前記ズレ検出装置が、カメラであり、前記カメラは、前記アイウェア装置に、位置関係が既知となるように固定され、前記ズレ算出部は、前記カメラにより2点以上から撮影したズレ周辺の撮像データを用いて写真測量を行って前記ズレを算出することも好ましい。
上記態様において、前記ズレ検出装置が前記スキャナであり、前記ズレ算出部は、前記スキャナが取得した前記ズレ周辺の3次元点群データに基づいて前記ズレを算出することも好ましい。
上記態様において、前記アイウェア装置は、前記ディスプレイの表示上において、次の器械点を仮指定可能に構成され、前記データ処理装置は、仮指定された前記次の器械点の座標を算出して、前記スキャナを前記次の器械点に設置した場合に取得される前記点群データである観測データ予測を算出し、前記アイウェア装置に出力する、観測データ予測算出部を備え、前記観測データ予測算出部は、前記スキャナの性能と前記修正CAD設計データにおける立体構造物を考慮して観測データ予測を算出し、前記アイウェア装置は、前記ワイヤフレームおよび前記観測データ予測を現物に重ねて前記ディスプレイに表示することも好ましい。
上記態様において、前記観測データ予測は、2次元または3次元で、あるいは2次元と3次元で切換可能に表示されることも好ましい。
上記態様に係る表示システムによれば、CAD設計データが現場の状況と異なる場合にも、CAD設計データと現場の状況とのズレを検出して、CAD設計データを現場の状況に応じて修正することができる。修正したCAD設計データを用いれば、現場の状況に合致した観測データ予測を算出し、表示することができるので、作業者は、最適な次の器械点を設定することができ、現場の状況に応じた漏れのない点群データの観測を支援することができる。
本発明の第1の実施の形態に係る表示システムの作業イメージ図である。 同形態に係る表示システムの構成ブロック図である。 同表示システムにおけるスキャナの構成ブロック図である。 同表示システムにおけるアイウェア装置の外観斜視図である。 同アイウェア装置の構成ブロック図である。 同形態における処理PCの構成ブロック図である。 同形態に係る表示システムの使用方法のフローチャートである。 同使用方法の作業イメージを示す図である。 同方法において表示システムにより得られる画像の俯瞰したイメージを示す図である。 同方法における次の器械点の仮指定の一つの例を説明する図である。 上記表示システムにおける観測データ予測の算出方法を説明する図である。 同形態の1つの変形例に係る表示システムの構成ブロック図である。 同形態の別の変形例に係る表示システムの構成ブロック図である。 同形態のさらに別の変形例に係る表示システムの構成ブロック図である。 本発明の第2の実施の形態に係る表示システムの構成ブロック図である。
以下、本発明の好適な実施の形態について、図面を参照して説明するが、本発明はこれに限定されるものではない。また、各実施の形態および変形例に共通する同一の構成には、同一の符号を付し、重複する説明は適宜省略する。
(実施の形態)
(全体構成)
図1は、本発明の実施の形態に係るアイウェア表示システム(以下、単に「表示システム」という。)1の測定現場での作業イメージ図である。表示システム1は、スキャナ2、アイウェア装置4、および処理PC6を備える。
スキャナ2は、任意の点に、三脚上に取り付けられた整準台を介して設置される。スキャナ2は、整準台の上に設けられた基盤部2αと、基盤部2α上を軸H−H周りに水平回転する托架部2βと、托架部2βの中央で鉛直回転する投光部2γとを有する。アイウェア装置4は、作業者の頭部に装着される。処理PC6は、観測現場に設置される。
図2は、同表示システム1の構成ブロック図である。表示システム1において、スキャナ2、アイウェア装置4は、処理PC6に無線または有線で接続されている。アイウェア装置4の数は、特に限定されず、1つであってもよく複数であってもよい。アイウェア装置4が複数の場合、各アイウェア装置4は固有のID等で識別可能に構成される。
(スキャナ)
図3は、本形態に係るスキャナ2の構成ブロック図である。スキャナ2は、測距部21、鉛直回転駆動部22、鉛直角検出器23、水平回転駆動部24、水平角検出器25、演算処理部26、表示部27、操作部28、記憶部29、外部記憶装置30、および通信部31を備える。
測距部21は、送光部、受光部、送光光学系、該送光光学系と光学素子を共有する受光光学系および回動ミラー21αを備える。送光部は、半導体レーザ等の発光素子を備え、測距光としてパルス光を出射する。出射された測距光は、送光光学系を介して回動ミラー21αに入射し、回動ミラー21αによって偏向されて測定対象物に照射される。回動ミラー21αは、鉛直回転駆動部22により駆動されて回転軸V−V周りに回転する。
測定対象物により再帰反射された測距光は、回動ミラー21αおよび受光光学系を経て、受光部に入射する。受光部は、フォトダイオードなどの受光素子を備える。また、受光部には、測距光の一部が内部参照光として入射するようになっており、反射測距光および内部参照光に基づいて、演算処理部26により、照射点までの距離を求めるようになっている。
鉛直回転駆動部22と水平回転駆動部24は、モータであり、演算処理部26に制御される。鉛直回転駆動部22は回動ミラー21αを鉛直方向にV−V軸周りに回転させる。水平回転駆動部24は、托架部2βを水平方向にH−H軸周りに回転させる。
鉛直角検出器23と水平角検出器25は、エンコーダである。鉛直角検出器23は、回動ミラー21αの鉛直方向の回転角を測定する。水平角検出器25は、托架部2βの水平方向の回転角を測定する。
演算処理部26は、例えばCPU、ROM、RAM等を集積回路に実装したマイクロコントローラである。演算処理部26は、送光部の発光タイミングと、受光部の受光タイミングの時間差(パルス光の往復時間)に基づき、測距光の1パルス光ごとに照射点までの距離を算出する。また、その時の測距光の照射角度を算出して、照射点の角度を算出する。
また、演算処理部26は、ソフトウェア的に構成された点群データ取得部261を備える。点群データ取得部261は、測距部21、鉛直回転駆動部22、および水平回転駆動部24を制御して測距光を全周(360°)に走査(フルドームスキャン)して、各照射点の座標を取得して、全周の点群データを取得する。
表示部27は、例えば、液晶ディスプレイである。操作部28は、電源キー、数字キー、小数点キー、+/−キー、実行キー、スクロールキー等を有し、作業者が、スキャナ2の操作、スキャナ2に対する情報を入力可能に構成されている。
記憶部29は、例えばハードディスクドライブであり、演算処理部26の機能を実行するためのプログラムを格納する。
外部記憶装置30は、例えばメモリカード等であり、スキャナ2が取得する種々のデータを記憶する。
通信部31は、外部ネットワークとの通信を可能にするものであり、インターネットプロトコル(TCP/IP)を用いてインターネットと接続し、アイウェア装置4および処理PC6との情報の送受信を行う。
(アイウェア装置)
図4は、本実施の形態に係るアイウェア装置4の外観斜視図であり、図5は、アイウェア装置4の構成ブロック図である。アイウェア装置4は、作業者の頭部に装着されるウェアラブルデバイスである。アイウェア装置4は、ディスプレイ41と、制御部42と、ズレ検出装置としてのカメラ49と備える。
ディスプレイ41は、作業者が装着した時に、作業者の両目を覆うゴーグルレンズ型の透過型ディスプレイである。一例として、ディスプレイ41は、ハーフミラーによる光学シースルーのディスプレイであり、現場風景(以下、「現物」ともいう。)の実像に重ねて、制御部42の受信した虚像が合成された映像を観察できるように構成されている。
制御部42は、演算処理部43、通信部44、相対位置検出センサ(以下、単に「相対位置センサ」という。)45、相対方向検出センサ(以下、単に「相対方向センサ」という。)46、記憶部47、操作スイッチ48を備える。
演算処理部43は、少なくともCPUおよびメモリ(RAM,ROM)を集積回路に実装したマイクロコンピュータである。演算処理部43は、相対位置センサ45および相対方向センサ46の検出したアイウェア装置4の位置および方向の情報を処理PC6に出力する。
また、処理PC6から3次元のCAD設計データ661を受信して、ワイヤフレームを現物に重ねてディスプレイ41に表示する。CAD設計データ661は、CADを用いて作成した、観測現場の3次元の設計図面である。また、処理PC6から、同期された観測データおよび観測データ予測を受信して、現物に重ねてディスプレイ41に表示する。
演算処理部43はまた、ソフトウェア的に構成された器械点設定部431を備える。器械点設定部431は、現場の風景を表示するディスプレイ41上で、作業者の指示に従って次の器械点を仮指定する。また、器械点設定部431は、仮指定した次の器械点の座標を、重ね合わされたCAD設計データ661の座標空間における空間上の点として算出し、処理PC6に出力する。また、器械点設定部431は、仮指定状態において、作業者からの指示に従って次の器械点を設定する。次の器械点の設定については後述する。
通信部44は、外部ネットワークとの通信を可能にするものであり、インターネットプロトコル(TCP/IP)を用いてインターネットに接続し、処理PC6と情報の送受信を行う。
相対位置センサ45は、観測現場に設置されたGPS用アンテナ、WiFi(登録商標)アクセスポイント、超音波発振器などから無線測位を行い、観測現場内でのアイウェア装置4の位置を検出する。
相対方向センサ46は、三軸加速度センサまたはジャイロセンサと、傾斜センサとの組み合わせからなる。相対方向センサ46は、上下方向をZ軸方向、左右方向をY軸方向、前後方向をX軸方向として、アイウェア装置4の傾きを検出する。
記憶部47は、例えばメモリカードである。記憶部47は、演算処理部43が機能を実行するためのプログラムを格納している。
操作スイッチ48は、例えば、図4に示すような、アイウェア装置4の電源をONOFFするための電源ボタン48α、実行する処理に応じて異なる機能を発揮するための機能ボタン48β、48β,48β、およびカメラ49を動作させて、撮像するためのカメラ操作ボタン48γを備える。アイウェア装置の機能ボタン48β、48β,48βはディスプレイの表示に応じて割り当てられた機能を実行するボタンである。
カメラ49は、図示しない光学系と、イメージセンサと、信号処理部とを備えるいわゆるデジタルカメラである。イメージセンサは、例えばCCDセンサやCMOSセンサである。イメージセンサは、カメラ中心を原点とした直交座標系を有し、各画素のローカル座標が特定されるようになっている。信号処理部は、撮影された画像を、動画形式または静止画形式のいずれかで信号処理する。撮像データは、通信部44を介して、処理PCに送信可能になっている。
カメラ49のカメラ中心は、アイウェア装置4本体の中心と位置関係が既知となるように固定されている。したがって、カメラ49の位置および方向は、相対位置センサ45および相対方向センサ46の検出結果に基づいて取得することができる。カメラ49の相対位置および、相対方向は、後述する同期計測部601によりアイウェア装置4本体と同じ座標空間で管理されるようになっている。
(処理PC)
図6は、本形態に係る処理PC6の構成ブロック図である。処理PC6は、汎用パーソナルコンピュータ、PLD(Programmable・Logic・Device)等による専用ハードウェア、タブレット端末、またはスマートフォン等である。処理PC6は、少なくとも演算処理部60、PC通信部63、PC表示部64、PC操作部65、およびPC記憶部66を備える。本実施の形態において、演算処理部60が、データ処理装置であり、PC記憶部66が記憶装置である。
PC通信部63は、外部ネットワークとの通信を可能にするものであり、インターネットプロトコル(TCP/IP)を用いてインターネットと接続し、スキャナ2およびアイウェア装置4と情報の送受信を行う。
PC表示部64は、例えば液晶ディスプレイである。PC操作部65は、例えば、キーボード、マウス等であり、種々の入力・選択・決定等を可能にする。
PC記憶部66は、例えば、HDDドライブである。PC記憶部66は、少なくとも、観測現場の3DのCAD設計データ661を備える。
演算処理部60は、少なくともCPUおよびメモリ(RAM,ROM等)を集積回路に実装した制御ユニットである。演算処理部60には、同期計測部601、観測データ予測算出部602、ズレ算出部603、および設計データ修正部604がソフトウェア的に構成されている。
同期計測部601は、スキャナ2の位置および方向に関する情報と、アイウェア装置4の位置・方向に関する情報を受信し、スキャナ2の座標空間と、CAD設計データ661または修正CAD設計データ662の座標空間を、アイウェア装置4の座標空間と一致するように変換してアイウェア装置4に出力する。
また、同期計測部601は、後述するように観測データ予測算出部602で算出した観測データ予測DPをアイウェア装置4の座標空間と一致するように変換して、アイウェア装置4に出力する。
また、同期計測部601は、アイウェア装置4と同じ座標空間で、カメラ49の相対位置・相対方向を管理する。
観測データ予測算出部602は、アイウェア装置4で仮指定された次の器械点にスキャナ2を設置した場合の、観測データ予測DPを算出する。ここで観測データ予測DPは、スキャナ2を仮指定された次の器械点に設置した場合に、スキャナ2が取得すると予測される点群データである。
観測データ予測算出部602は、設計データ修正部604で修正した修正設計データを用いて、スキャナ2の中心座標が仮指定された次の器械点の座標である場合の観測データ予測DPを、スキャナ2の性能(すなわち、スキャナ2の測距光の照射距離、測距光のパルス間隔、およびスキャナ2の回転速度設定)、および修正設計データにおける立体構造物の3次元的な関係を考慮して算出する。
ズレ算出部603は、2以上の地点から、アイウェア装置4のカメラ49で撮影された現物の撮像データに基づいて、共通の特徴点を抽出し、写真測量によりズレ部分の現物の3次元座標を取得して、現物とCAD設計データ661のズレを算出する。
設計データ修正部604は、ズレ算出部603で算出した現物とCAD設計データ661のズレを用いてCAD設計データ661を修正し、修正CAD設計データ662を作成する。
(表示システム1の使用方法)
次に、表示システム1の使用方法の1つの例を説明する。図7は、表示システム1の使用方法のフローチャートである。図8は、ステップS101〜S109の作業イメージ図であり、図9は、表示システム1を用いた表示のイメージを俯瞰図で表したものである。本例では、観測現場には、CAD設計データ661とは異なる部分D(ズレ)がある。
まずステップS101で、作業者は、観測現場に基準点と基準方向を設定する。基準点は、現場内の任意の点を選択する。基準方向は、基準点とは別の特徴点を任意に選択し、基準点から特徴点の方向とする。
次にステップS102で、作業者は、スキャナ2の同期を行う。具体的には、作業者は、現場内の任意の点にスキャナ2を設置し、ステップS101で選択した基準点および特徴点を含む後方交会法等の観測により、スキャナ2の絶対座標を把握する。スキャナ2は、自機の座標情報を処理PC6に送信する。
処理PC6の同期計測部601は、基準点の絶対座標を(x,y,z)=(0,0,0)に変換し、かつ、基準方向を水平角0°と認識して、以後、スキャナ2からの情報に関して、基準点を原点とする空間で、スキャナ2の相対位置および相対方向を管理する。
次にステップS103で、作業者は、アイウェア装置4の同期を行う。具体的には、作業者は、基準点にアイウェア装置4を設置し、ディスプレイ41の中心を基準方向に一致させ、相対位置センサ45の(x,y,z)を(0,0,0)、かつ、相対方向センサの(roll,pitch,yaw)を(0,0,0)とする。処理PC6の同期計測部601は、以後、アイウェア装置4から取得するデータについて、基準点を原点とする空間で、アイウェア装置4の相対位置・相対方向を管理する。この結果、カメラ49についても、基準点を原点とする空間で、カメラ49の相対位置・相対方向が管理される。
アイウェア装置4の同期は、上記方法に限定されず、例えば、アイウェア装置4に、アイウェア装置4の中心および方向軸を示すためのレーザ装置を設け、レーザをガイドにして、基準点および基準方向を一致させることにより行ってもよい。
或いは、アイウェア装置4に視線センサ等を設け、CAD設計データ661と現物とで、特徴点を3点以上マーキングし、アイウェア装置4と特徴点とを結ぶ測線の角度からアイウェア装置4の座標を特定し、基準点の座標と対応づけてもよい。
ステップS103の動作を実行することで、ステップS104では、アイウェア装置4は、図8に破線で示すように、現物に重ねてCAD設計データ661のワイヤフレームの虚像を表示する。アイウェア装置4の現物に対する相対位置および相対方向は、処理PC6の同期計測部601で、管理されている。従って、処理PC6からアイウェア装置4に現物に同期されたCAD設計データ661の情報が送られる。すると、ディスプレイ41には、現物に重ねられて、破線で示すようにCAD設計データ661のワイヤフレームの虚像が表示される。
以上のステップS101〜S103は、本表示システム1の初期設定として行われる。図9(A)は、初期設定が完了した状態での、ディスプレイ41上の表示のイメージである。なお、図9において、作図の便宜上、スキャナ2の器械中心は地面にある。すなわち、器械高が0であるとして表す。しかし、実際には、スキャナ2の器械中心は器械高の分だけ上方向へ変位しているものとする。
次に、ステップS105で、作業者が、現物とワイヤフレームのズレDを確認する。
次に、ステップS106で、作業者は、アイウェア装置4を装着した状態で、カメラ49で、確認されたズレDの周辺を撮影する。アイウェア装置4は、撮像データを処理PC6に送信する。作業者は、2以上の地点から反射ターゲットT周辺の撮影を行う。
次にステップS107で、処理PC6のズレ算出部603は、2以上の撮像データに基づいて、共通の特徴点を抽出し、写真測量によりズレD周辺の3次元座標を算出する。
次に、ステップS108で、設計データ修正部604は、ズレDの3次元座標に基づいて、CAD設計データ661を修正し、修正CAD設計データ662に基づくワイヤフレームをアイウェア装置4に送信する。
次に、ステップS109で、アイウェア装置4は、ディスプレイ41に修正したワイヤフレームを現物に重ねて表示する。
次に、ステップS110で、アイウェア装置4は、作業者の指定に従って、次の器械点P(図9(B))を仮指定する。具体的には、以下のように行う。
ディスプレイ41上には、図10(A)に示すように、操作スイッチ48(電源ボタン48α、および機能ボタン48β1,48β2,48β)の配置に対応して、それぞれの機能が表示されている。作業者は、機能ボタン48βを押し下げて器械点設定モードを選択する。
すると、器械点設定部431は、図10(B)に示すように、ディスプレイ41の中央に、ディスプレイ41の中央を示す十字のポインタ90を表示する。ディスプレイ41上には、機能ボタン48β1,48β2,48βの機能を表示する。このように表示することで、作業者は特段の意識をすることなくボタンの機能を容易に把握して、アイウェア装置4を操作することができる。
作業者は、ディスプレイ41の表示を確認しながら、ポインタ90を次の器械点を設定しようとする位置に合わせて、機能ボタン48βを押し下げることで、次の器械点Pを空間上の点として仮指定する。このとき、図10(C)に示すように、機能ボタン48βを押して表示を拡大し、次の器械点Pを仮指定するようにしてもよい。機能ボタン48βを1回押すことで、所定の倍率で表示を拡大するようになっている。このようにすれば、仮指定のする際の正確性が向上する。
次に、器械点設定部431は、仮指定された器械点Pの座標を算出し、処理PC6に送信する。これにより、器械点Pは仮指定された状態となり、ディスプレイ41上の、「仮指定」の表示は、確定するかどうかを選択する表示に切り替わる。
次に、ステップS111で、処理PC6の観測データ予測算出部602が、仮指定された次の器械点Pの座標情報と、修正CAD設計データ662とを同期する。そして、スキャナ2を次の器械点に設置した場合にスキャナ2が取得すると予測される点群データ、すなわち観測データ予測DPを、スキャナ2の性能(すなわち、スキャナ2の測距光の照射距離、測距光のパルス間隔、およびスキャナ2の回転速度設定)および修正CAD設計データ662における立体構造物の3次元的な関係を考慮して算出する。
具体的には、スキャナ2は、測距光を器械中心から鉛直に360°、水平に180°回転スキャン(フルドームスキャン)して点群データを取得する。従って、点群データ取得可能な領域は、器械中心の座標を中心として水平および鉛直方向に全方向に延在している。
また、点群データの点群密度は、測距光のパルス間隔が狭いほど高く、スキャナ2の回転速度が早いほど低くなり、スキャナ2からの距離が遠いほど低くなる。この様に、点群密度は、測距光のパルス間隔、測距光の照射距離、およびスキャナ2の回転速度に依存する。また、スキャナ2は、地上に設置されているので、相対的に地上に近接している。従って、所定の点群密度を満たす点群データ取得可能領域Aは、例えばスキャナ2の中心座標を中心とする、図11(A)に示すような略半球状のドーム形状となる。なお、便宜上、図面は、器械高を無視して器械中心が地面上の点Pと同じ位置にあるとして作図しているが、実際の器械中心は、点Pから上方向に器械高だけずれている。
図11(B)は、図11(A)の地面平面に沿う断面図であり、図11(C)は、図11(B)のXIC−XIC線に沿う断面図である。フルドームスキャンの場合、点群データ取得可能領域Aの中で、測距光はスキャナ2の器械中心からから全方向に放射状に出射される。点群データ取得可能領域内に立体構造物S,S,Sがあると、測距光は立体構造物S,S,Sで反射(遮蔽)され、スキャナ2の反対側は、点群データ取得不可能領域Bとなる。
観測データ予測算出部602は、測距光の照射距離とスキャナ2の器械中心の座標から求められる点群データ取得可能領域Aと、修正CAD設計データ662における立体構造物との3次元的な関係と、測距光の照射距離、測距光のパルス間隔、およびスキャナ2の回転速度設定から求められる点群密度を考慮して、所定の密度以上で点群データを取得可能と予測される領域を観測データ予測DPとして算出する。
このとき、観測データ予測DPの算出に用いるスキャナ2の測距光のパルス間隔、スキャナ2の回転速度設定の値、およびスキャナ2の中心座標を求めるためのスキャナ2の器械高等の値は、観測データ予測算出部602がスキャナ2の通信部31を介して取得可能になっていてもよい。或いは、PC操作部65から、作業者により入力可能になっていてもよい。
次に、ステップS112で、アイウェア装置4が、処理PC6より観測データ予測DPを受信して、図9(C−1)に示す様にディスプレイ41に、現物とワイヤフレームに重ねて表示する。
観測データ予測DPの表示の態様としては、例えば図9(C−1)のように、3次元的に表示しても良い。または、図9(C−2)のように、観測現場の地面平面上に、2次元的に表示してもよい。あるいは、図9(C−1)の3次元表示と、図9(C−2)の2次元表示とが、切り替え可能となっていても良い。
また、例えば図9(C−3)のように、点群密度が所望の範囲となる第1の領域E1と、第1の領域E1の外周側に配置され、点群密度が、第1の領域E1よりも低くなるが、その領域にさらに次の器械点を設定して、点群データを取得することで、所望の重なり合いを達成できる第2の領域E2とを、異なる色で表示する等、識別可能に表示しても良い。
また、異なる色で表示する場合には、第1の領域E1と、第2の領域E2とを、同系色の濃淡(例えば、第1の領域E1を濃色、第2の領域E2を淡色)となるようにしても良い。また、図9(C−4)のように、第1の領域E1と、第2の領域E2を、観測現場の地面に、2次元的に表示してもよい。
次に、ステップS113で、作業者は、ディスプレイ41上に表示された観測データ予測DPを目視で確認して、仮指定した点を次の器械点に設定するかどうかを判断し、測定領域に満足する場合(Yes)、作業者が機能ボタン48β(「確定」ボタン)を押すことで、ステップS109に移行して、器械点設定部431が次の器械点を確定し、確定した次の器械点情報として処理PC6に出力して処理を終了する。
ステップS113で作業者が仮指定した点に満足できない場合(No)、作業者が機能ボタン48βを押すことで仮指定状態をリセットする。そして、ステップS110に戻り、別の点を、次の器械点Pとして仮指定する。次の器械点Pの確定は、アイウェア装置4のゴーグル部分の外面に、タッチセンサを備え、作業者がゴーグルの外面に触れることで、確定するように構成してもよい。
なお、ステップS114で確定後、次の器械点Pは、例えば図10(D)に示すように、星印など確定された点であることを認識可能に表示される。作業者は、ディスプレイ41の確定された器械点の表示と、実際の風景画像の表示を確認しながら、実際の地面上に次の器械点をマーキング等する。この作業は、アイウェア装置4を装着した作業者の指示により、別の作業者が行ってもよい。
その後、確定した器械点Pにスキャナ2を設置して、後方交会法等の方法により、スキャナ2の座標および方向角を測定する。また、スキャナ2で点群データの観測を行う。
そして、作業者は、ステップS110〜S113と同様にして、次の器械点Pを設定する。このとき、第2の領域E2内に次の器械点Pを設定すると、点群データの重なり合いが好適になる。そして、ステップS101〜S114を繰り返して、順次、次の器械点P,P・・・を設定しながら各点において点群観測を行い、観測現場全体の観測を行う。なお、1度初期設定を行った同じ観測現場内においては、ステップS101の基準点、基準方向の設定と、ステップS103のアイウェア装置・カメラの同期は、省略することができる。
本実施の形態では、ワイヤフレームで現物とCAD設計データ661との異なる部分を確認可能にした上で、カメラ49で写真測量を行ってズレD部分の座標を算出し、CAD設計データ661を現物に合致するように修正し、修正CAD設計データ662のワイヤフレームを、アイウェア装置4のディスプレイ41に表示するように構成した。
この様にすることで、CAD設計データ661と現場に異なる部分があっても、修正CAD設計データ662に基づいて、ワイヤフレームを用いた現場の確認を行うことが可能になる。
本形態では、相対位置センサ45および相対方向センサ46を備えるアイウェア装置4にカメラ49を備え、アイウェア装置4とカメラとの位置関係を既知として構成したので、カメラ49の相対位置・相対方向は、個別の同期作業を必要とせず、アイウェア装置4と同期して管理できる。
また、ウェアラブルデバイスであるアイウェア装置4にカメラ49を備え、カメラ49でズレD周辺の写真測量を行うように構成したので、2点以上から撮影を行う場合も、カメラの設置等の煩雑な作業が必要なく、作業が簡便である。
さらに、アイウェア装置4を用いて、次の器械点Pを仮指定し、仮指定した器械点Pからの観測データ予測DPを、修正CAD設計データ662に基づいて算出し、アイウェア装置4のディスプレイ41に表示するように構成した。作業者は、CAD設計データ661と観測現場での状況が異なる場合であっても、実際の観測現場の状況に合わせて、視覚的に観測データ予測DPを確認しながら、器械点の設定を行うことができる。これにより、点群データをもれなく取得できる的確な器械点を設定することができ、漏れのない点群データの観測を支援することができる。
なお、観測データ予測DPを3次元の半球ドーム状に表示することで、作業者にとって、観測可能範囲が認識しやすくなる。また、観測データ予測DPを観測現場の地面平面上に、2次元的に表示することで、次の器械点は地面平面上で指定されるので、器械点を指定するのに好適な領域が認識容易となる。
また、観測データ予測DPの表示を、点群密度が所望の範囲となる第1の領域E1と、第1の領域E1の外周側に配置され、点群密度が、第1の領域E1よりも低くなるが、その領域にさらに次の器械点を設定して、点群データを取得することで、所望の重なり合いを達成できる第2の領域E2とを、識別可能に表示するようにすると、作業者は、次の器械点を設定するのに好ましい領域が、明確に認識することができる。この結果、作業者は、点群データの重なり合いを保持しながらも、無駄な重なり合いを最小限度にするような次の器械点を設定しやすくなるので、観測現場全体を効率よく測定できる。
また、第1の領域E1と、第2の領域E2とを、例えば、同系色の濃淡で示すようにすれば、作業者が、実際の点群密度の違いを直感的に認識することができるので好ましい。
なお、本方法において、ズレD周辺に、十分な数の特徴点が得られない場合には、ズレ10周辺に反射ターゲット等を設置して、写真測量を行ってもよい。
<変形例1>
図12は、表示システム1の1つの変形例に係る表示システム1aの構成ブロック図である。
表示システム1aは、スキャナ2a、およびアイウェア装置4を備え、処理PC6を備えない。スキャナ2aは、演算処理部26aに同期計測部601、観測データ予測算出部602、ズレ算出部603、および設計データ修正部604を備え、記憶部29aにCAD設計データ661を備える。本変形例において、スキャナ2aの演算処理部26aがデータ処理装置であり、記憶部29aが記憶装置である。
本変形例では、スキャナ2aが高性能な演算処理部26aと、小型大容量の記憶部29aを備えた場合に実現可能であり、表示システム1aの構成をさらにシンプルにすることができる。
<変形例2>
図13は、別の変形例に係る表示システム1bの構成ブロック図である。表示システム1bは、スキャナ2、アイウェア装置4、処理PC6b、カメラ9、およびサーバ8を備える。サーバ8は、通信部81、演算処理部82、および記憶部83を備える。
本変形例では、CAD設計データ661が、処理PC6bのPC記憶部66ではなく、サーバ8の記憶部83に保存されている。処理PC6bは、図7のフローチャートのステップS104において、必要な箇所のCAD設計データ661を、PC通信部63を介してサーバ8から取得する。本変形例において、PC6bの演算処理部60がデータ処理装置であり、サーバ8の記憶部83が記憶装置である。
これにより、処理PC6bのPC記憶部66の負担を軽減することができる。
<変形例3>
図14は、さらに別の変形例に係る表示システム1cの構成ブロック図である。表示システム1cは、スキャナ2、アイウェア装置4、カメラ9およびサーバ8cを備え、処理PC6を備えない。表示システム1cでは、PC記憶部66ではなく、サーバ8cの記憶部83がCAD設計データ661を保存している。
また、処理PC6に代えて、サーバ8cの演算処理部82cが、同期計測部601、観測データ予測算出部602、ズレ算出部603および設計データ修正部604を備える。変形例3において、サーバ8cの演算処理部82cがデータ処理装置であり、サーバ8cの記憶部83が記憶装置である。
これにより、ステップS101〜S103,S107〜S110,S112の演算処理を高速化することができる。
<他の変形例>
他の変形例として、次の器械点の設定については以下のような変形を加えることができる。
例えば、アイウェア装置4に、作業者の目頭位置と虹彩位置の位置関係に基づいて作業者の視線を検出する視線センサを備える構成とする。そして、器械点設定部431が、例えば、瞬き等の所定の動作により、ディスプレイ41において指定された作業者の視線の位置を次の器械点として仮指定し、次の器械点の座標を算出するように構成してもよい。
このようにすると、作業者は、視点を変える、目を閉じるという動作を行うだけで次の器械点の設定を行うことができ、操作が容易である。
あるいは、表示システム1を、処理PC6を介してアイウェア装置と通信可能な手指用磁気式モーションキャプチャ装置(例えば、特開2007−236602号公報参照)を備える構成とする。そして、同期計測部601により、モーションキャプチャ装置の位置および方向の情報を同期可能とする。そして、作業者が、ディスプレイ41上の表示を確認しながら、モーションキャプチャ装置を装着した指先で、次の器械点とする点を指し示すことにより、その点を次の器械点として仮指定し、仮指定した次の器械店の座標を算出するように構成してもよい。
このようにすると、作業者が、指定する点を指で指し示すという簡単な動作で次の器械点の仮指定を行うことができるので、操作が容易である。
(第2の実施の形態)
図15は、本発明の第2の実施の形態に係る、表示システム100の構成ブロック図である。表示システム100のアイウェア装置104はカメラ49を備えなくてもよく、スキャナ2が、ズレ検出装置として動作する。
具体的には、ステップS106、S107で、カメラ49でズレ周辺を撮影し、写真測量を行う代わりに、スキャナ2でズレD周辺の3次元点群データを測定し、ズレ算出部603が、取得した現場の3次元点群データと、CAD設計データ661に基づいて、ズレを算出する。
上記のように構成すれば、ズレ検出装置として、カメラ49に代えて、スキャナ2を用いても、第1の実施の形態と同様の効果を奏することができる。また、スキャナ2は、そもそも、初期設定として、アイウェア装置4と同期しているため、ズレ検出のために別途の同期作業を必要としない。
以上、本発明の好ましい実施の形態について述べたが、上記の実施の形態は本発明の一例であり、これらを当業者の知識に基づいて組み合わせることが可能であり、そのような形態も本発明の範囲に含まれる。
1,1a,1b,1c :表示システム
2,2a :スキャナ
26a :演算処理部(データ処理装置)
261 :点群データ取得部
29a :記憶部(記憶装置)
31 :(スキャナ)通信部
4 :アイウェア装置
41 :ディスプレイ
431 :器械点設定部
44 :(アイウェア装置)通信部
45 :相対位置検出センサ(相対位置センサ)
46 :相対方向検出センサ(相対方向センサ)
49 :カメラ(ズレ検出装置)
6,6b,6c :処理PC
60 :演算処理部(データ処理装置)
601 :同期計測部
602 :観測データ予測算出部
603 :ズレ算出部
604 :設計データ修正部
661 :CAD設計データ
662 :修正CAD設計データ
63 :PC通信部
66 :PC記憶部
81 :(サーバ)通信部
82 :演算処理部(データ処理装置)

Claims (5)

  1. 測距光を水平および鉛直に走査して照射点の距離および角度を測定し、点群データを取得する点群データ取得部を備えるスキャナ;
    ディスプレイと、装置の位置を検出する相対位置検出センサと、装置の向きの方向を検出する相対方向検出センサとを備えるアイウェア装置;
    観測現場のCAD設計データを備える記憶装置;および、
    前記CAD設計データと、現場とのズレを検出するズレ検出装置;を備え、
    前記スキャナの位置および方向に関する情報と、前記アイウェア装置の位置および方向に関する情報と、前記ズレ検出装置の位置および方向に関する情報とを受信して、前記スキャナの座標空間、前記アイウェア装置の座標空間、前記ズレ検出装置の座標空間、および前記CAD設計データの座標空間とを同期する同期計測部と、同期された座標空間における前記ズレを算出するズレ算出部、前記ズレの算出結果に基づいて、前記CAD設計データを修正して修正CAD設計データを生成する設計データ修正部とを備えるデータ処理装置を備え、
    前記スキャナ、前記アイウェア装置、前記記憶装置および前記ズレ検出装置は、前記データ処理装置にデータ入出力可能に接続されており、
    前記同期計測部は、前記修正CAD設計データを前記アイウェア装置から見たワイヤフレームに変換し、前記アイウェア装置は、前記修正CAD設計データの前記ワイヤフレームを前記ディスプレイに表示することを特徴とするアイウェア表示システム。
  2. 前記ズレ検出装置が、カメラであり、
    前記カメラは、前記アイウェア装置に、位置関係が既知となるように固定され、
    前記ズレ算出部は、前記カメラにより2点以上から撮影したズレ周辺の撮像データを用いて写真測量を行って前記ズレを算出する
    ことを特徴とする請求項1に記載のアイウェア表示システム。
  3. 前記ズレ検出装置が前記スキャナであり、
    前記ズレ算出部は、前記スキャナが取得した前記ズレ周辺の3次元点群データに基づいて前記ズレを算出することを特徴とする請求項1に記載のアイウェア表示システム。
  4. 前記アイウェア装置は、前記ディスプレイの表示上において、次の器械点を仮指定可能に構成され、
    前記データ処理装置は、仮指定された前記次の器械点の座標を算出して、前記スキャナを前記次の器械点に設置した場合に取得される前記点群データである観測データ予測を算出し、前記アイウェア装置に出力する、観測データ予測算出部を備え、
    前記観測データ予測算出部は、前記スキャナの性能と前記修正CAD設計データにおける立体構造物を考慮して観測データ予測を算出し、
    前記アイウェア装置は、前記ワイヤフレームおよび前記観測データ予測を現物に重ねて前記ディスプレイに表示することを特徴とする請求項1〜3の何れかに記載のアイウェア表示システム。
  5. 前記観測データ予測は、2次元または3次元で、あるいは2次元と3次元で切換可能に表示されることを特徴とする請求項1〜4の何れかに記載の表示システム。
JP2020082865A 2020-05-08 2020-05-08 アイウェア表示システム Pending JP2021177157A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020082865A JP2021177157A (ja) 2020-05-08 2020-05-08 アイウェア表示システム
US17/313,213 US20210348922A1 (en) 2020-05-08 2021-05-06 Eyewear display system and eyewear display method
EP21172966.0A EP3910407A1 (en) 2020-05-08 2021-05-10 Eyewear display system and eyewear display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082865A JP2021177157A (ja) 2020-05-08 2020-05-08 アイウェア表示システム

Publications (2)

Publication Number Publication Date
JP2021177157A true JP2021177157A (ja) 2021-11-11
JP2021177157A5 JP2021177157A5 (ja) 2023-05-16

Family

ID=75887875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082865A Pending JP2021177157A (ja) 2020-05-08 2020-05-08 アイウェア表示システム

Country Status (3)

Country Link
US (1) US20210348922A1 (ja)
EP (1) EP3910407A1 (ja)
JP (1) JP2021177157A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7240996B2 (ja) * 2019-09-18 2023-03-16 株式会社トプコン アイウェア装置を用いた測量システムおよび測量方法
EP4253907A1 (en) * 2022-03-31 2023-10-04 Topcon Corporation Point cloud information generating system, control method of point cloud information generating system, and control program of point cloud information generating system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016217941A (ja) * 2015-05-22 2016-12-22 株式会社東芝 3次元データ評価装置、3次元データ測定システム、および3次元計測方法
JP2020030152A (ja) * 2018-08-24 2020-02-27 株式会社アセス 測量方法
JP2020056616A (ja) * 2018-09-28 2020-04-09 株式会社トプコン 点群データ表示システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4465476B2 (ja) 2006-03-08 2010-05-19 国立大学法人秋田大学 磁気式位置姿勢センサを用いた手指用モーションキャプチャ計測方法
US9134127B2 (en) * 2011-06-24 2015-09-15 Trimble Navigation Limited Determining tilt angle and tilt direction using image processing
US9599825B1 (en) * 2015-09-30 2017-03-21 Daqri, Llc Visual indicator for transparent display alignment
JP6771994B2 (ja) * 2016-08-17 2020-10-21 株式会社トプコン 測定方法及びレーザスキャナ
JP6171079B1 (ja) * 2016-12-22 2017-07-26 株式会社Cygames 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
GB201714349D0 (en) * 2017-09-06 2017-10-18 Xyz Reality Ltd A method and equipment for setting out a construction site
EP3460394B1 (en) * 2017-09-26 2020-06-03 Hexagon Technology Center GmbH Surveying instrument, augmented reality (ar)-system and method for referencing an ar-device relative to a reference system
EP3567341B1 (en) * 2018-05-08 2023-11-29 Leica Geosystems AG Augmented reality-based system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016217941A (ja) * 2015-05-22 2016-12-22 株式会社東芝 3次元データ評価装置、3次元データ測定システム、および3次元計測方法
JP2020030152A (ja) * 2018-08-24 2020-02-27 株式会社アセス 測量方法
JP2020056616A (ja) * 2018-09-28 2020-04-09 株式会社トプコン 点群データ表示システム

Also Published As

Publication number Publication date
US20210348922A1 (en) 2021-11-11
EP3910407A1 (en) 2021-11-17

Similar Documents

Publication Publication Date Title
CN109556580B (zh) 测绘仪器、ar系统和相对于参照系定位ar装置的方法
CN107402000B (zh) 用于将显示装置相对于测量仪器相互关联的方法和系统
CN106535806B (zh) 来自多端口视角的手术场景的定量三维成像
US9113154B2 (en) Three-dimensional measurement device having three-dimensional overview camera
EP1903304B1 (en) Position measuring system, position measuring method and position measuring program
JP2017528727A (ja) 2dカメラ画像からの3d画像の生成に当たり3d計量器と併用される拡張現実カメラ
JP7240996B2 (ja) アイウェア装置を用いた測量システムおよび測量方法
JP6396141B2 (ja) 測定方法及び測定装置
EP3628968B1 (en) Survey data processing device, survey data processing method, and survey data processing program
JP2019109154A (ja) 測量装置
JP2022007185A (ja) アイウェア表示システム
JP2015534055A (ja) レーザトラッカを用いて再帰反射器を選択、ロックオン、追跡するために手持器具を使用する方法
EP3910407A1 (en) Eyewear display system and eyewear display method
CN108885487A (zh) 一种可穿戴式系统的手势控制方法以及可穿戴式系统
JP2018009957A (ja) 三次元位置計測システム,三次元位置計測方法,および計測モジュール
US11403826B2 (en) Management system and management method using eyewear device
JP7453054B2 (ja) アイウェア表示システム
US20240112406A1 (en) Bar arrangement inspection result display system
JP7442285B2 (ja) アイウェア装置を用いた測量システムおよび測量方法
US20240112327A1 (en) Bar arrangement inspection system and bar arrangement inspection method
JP2023077246A (ja) 測量支援システムおよび測量支援方法
US11966508B2 (en) Survey system
JP2018160145A (ja) 3次元計測装置、3次元計測プログラム、および3次元計測システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230427

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122