JP2023047025A - 測量システム - Google Patents

測量システム Download PDF

Info

Publication number
JP2023047025A
JP2023047025A JP2021155916A JP2021155916A JP2023047025A JP 2023047025 A JP2023047025 A JP 2023047025A JP 2021155916 A JP2021155916 A JP 2021155916A JP 2021155916 A JP2021155916 A JP 2021155916A JP 2023047025 A JP2023047025 A JP 2023047025A
Authority
JP
Japan
Prior art keywords
surveying
unit
target
surveying instrument
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021155916A
Other languages
English (en)
Inventor
武志 菊池
Takeshi Kikuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2021155916A priority Critical patent/JP2023047025A/ja
Priority to US17/940,578 priority patent/US20230096054A1/en
Priority to EP22196911.6A priority patent/EP4155666A1/en
Publication of JP2023047025A publication Critical patent/JP2023047025A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • G01C15/06Surveyors' staffs; Movable markers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/14Artificial horizons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41DOUTERWEAR; PROTECTIVE GARMENTS; ACCESSORIES
    • A41D19/00Gloves
    • A41D19/0024Gloves with accessories
    • A41D19/0027Measuring instruments, e.g. watch, thermometer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】作業者が一人でもスムーズに測量作業が可能な測量システムの提供。【解決手段】ポール(7)に取付けられた前記ターゲット(5)の測距及び測角が可能な測量機(2)と、作業者の手に装着されるグローブ型のウェアラブル装置であり、命令を入力する入力部(34)から前記測量機(2)に命令を送るコントローラ(3)と、風景に重ねて表示が可能なアイウェア装置(4)とを備える測量システム(1)を提供する。アイウェア装置(4)に測量現場の風景に重ねて測量点を同期させて表示して、装着したグローブ型のコントローラ(3)からポール(7)を把持したまま測量機(2)に命令を入力して、ターゲットの測距測角を行う。不要な視線移動や手の移動などが省略され、測量作業を一人で効率的に行うことができる。【選択図】図1

Description

本発明は、一人で測量を行う作業者の作業効率を向上させる測量システムに関する。
近年は作業者が一人(ワンマン)で測量を行うことも多くなっている(例えば、特許文献1)。作業者が表示部と入力部を備えたデバイスを携帯し、ターゲット付きのポールを持って測定点へ移動して、デバイスの表示部で測定点を確認し、入力部から遠隔で測量機に測距・測角を指示することで、作業者一人で測量をすることが可能となっている。
特開2009-229350号
しかし、作業者は、デバイスの表示部を確認しながら移動し、測定のときには入力部から測定の命令を入力せねばならず、一連の動作に時間がかかるという問題があった。
本発明は、このような問題を改善するために成されたものであり、作業者一人での測量の作業効率を向上させる測量システムを提供する。
上記問題を解決するため、本開示のある態様では、ターゲット(7)と、前記ターゲット(7)が取り付けられるポール(5)と、前記ターゲット(7)までの距離を計測する測距部(26)と、前記測距部(26)の向く鉛直角と水平角を測角する測角部(21,22)と、前記測角部(21,22)の鉛直角および水平角を設定された角度に駆動する駆動部(23,24)と、通信部(28)と、入力された命令を実施する演算制御部(25)とを備え、前記ターゲット(5)の測距及び測角が可能な測量機(2)と、通信部(33)と、命令を入力する入力部(34)とを有し、前記測量機(2)と通信して前記測量機(2)に命令を送るコントローラ(3)と、通信部(44)と、ディスプレイ(41)と、装置の位置を検出する相対位置検出センサ(45)と、装置の方向を検出する相対方向検出センサ(46)とを備えるアイウェア装置(4)と、測量現場の測定点を記憶する記憶部(64)と、前記アイウェア装置(4)の位置および方向に関する情報を受領し、前記測定点の座標と同期する同期計測部(651)を備える演算処理部(65)とを備え、前記コントローラ(3)は手に装着するグローブであり、指先部に前記入力部(34)が設けられており、前記ディスプレイ(41)には、測量現場の風景に重ねて、前記演算処理部(65)が算出した前記測定点が表示され、前記コントローラ(3)から入力された命令により前記測量機(2)による測距および測角が実施される測量システム(1)を提供する。
この態様によれば、アイウェア装置で測定点を測量現場の風景に重ねて確認でき、さらにグローブとして作業者が装着したコントローラにより、ポールを把持したままの姿勢で、測量機に命令を送ることができる。測量に必要な行動を無駄なく実施でき、作業者一人での測量の作業効率が向上する。
また、ある態様では、前記入力部(34)は、少なくとも前記グローブの親指指先部に設けられた、接触を検知するセンサであり、接触方向、被接触物の移動方向、接触強さ、接触箇所等を検知し、検知パターンにより複数の種類の命令を入力できるように構成した。この態様によれば、作業者の指先の動きだけで、命令を入力するこができる。
また、ある態様では、前記センサは、静電センサまたは圧力センサである、ものとした。
また、ある態様では、前記測量機(2)は、前記ターゲット(7)を自動追尾する追尾部(27)を有し、前記ターゲット(7)が前記測定点から所定範囲内にあると、自動で追尾を行い、前記ディスプレイ(41)には、リアルタイムに前記ターゲット(7)の位置情報が表示されるように構成した。この態様によれば、ターゲットがロックされた状態では、詳しい位置情報が追加されるため、ポールを測定位置により高精度に短時間で設置できる。
また、ある態様では、前記記憶部(64)および前記演算処理部(65)は、前記測量機(2)に備えられるように構成した。ソフトウェア的、またはハードウェア的に測量機に含まれることで、構成要素を減らすことができる。設定を測量機で行うことができるため、全体の構成をシンプルにすることができる。
以上の説明から明らかなように、本発明によれば、作業者一人での測量の作業効率を向上させる測量システムを提供することができる。
本発明の実施の形態に係る測量システムの概略構成図である。 同測量システムの構成ブロック図である。 同測量システムに係る測量機の構成ブロック図である。 コントローラの外観図である。作業者に装着された状態を示す。 コントローラの使用状態の一例である。作業者がコントローラ(グローブ)を装着してポールを把持した状態を示す。 コントローラの構成ブロック図である。 アイウェア装置の外観斜視図である。 同アイウェア装置の構成ブロック図である。 処理PCの構成ブロック図である。 測量システムによる工程フロー図である。 同工程フローにおける初期設定(ステップS102~ステップS105を説明する図である。 アイウェア装置を通して作業者が視認する画像の一例である。 アイウェア装置を通して作業者が視認する画像の一例である。 コントローラの使用状態の別の一例である。 変形例の外観図である。 変形例の使用状態である。 別の変形例の外観図である。 別の変形例の使用状態である。
以下、本開示の構成の具体的な実施形態を、図面を参照しながら説明する。実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。また、同一の構成を持つものは同一の符号を付して、説明を省略する。
(実施形態)
図1は、本発明の好適な実施形態である測量システム1の外観斜視図であり、測量現場での作業イメージを示している。本実施形態に係る測量システム1は、ターゲット7が装着されたポール5、測量機2、処理PC6、アイウェア装置4、コントローラ3を備える。
測量機2は、基準点中心上に三脚を用いて設置される。測量機2は、整準器の上に設けられた基盤部2aと、基盤部2aを軸H-H周りに水平に回転する托架部2bと、托架部2bの中央で軸V-V周りに鉛直回転する望遠鏡2cとを有する。
アイウェア装置4は、作業者の頭部に装着される。コントローラ3は、作業者の片手に装着される。処理PC6は、測量現場内に設置される。
ポール5は下端を測定点に概ね鉛直に設置して使用される。ターゲット7は、測量機2の測量目標物であり、全方位から入射される光を再帰反射する光学特性を有している。ターゲット7の光学中心(光学的な反射点)はポール5の中心軸上となるように取り付けられており、取り付け高(ポール5下端から光学中心までの距離)は既知である。
図2は、測量システム1の構成ブロック図である。測量システム1において、アイウェア装置4、測量機2、およびコントローラ3は、処理PC6に無線接続される(有線接続も可)。またコントローラ3は測量機2の遠隔操作装置であり、離れた場所から無線で測量機2に命令を送信するように構成されている。コントローラ3は処理PC6を介して測量機2と情報を送受信する構成にしてもよい。本実施形態においては、作業者は一人を想定しているが、アイウェア装置4の数は、特に限定されず、1つであってもよく複数であってもよい。アイウェア装置4が複数の場合、各アイウェア装置4は固有のID等で識別可能に構成される。
(測量機2)
図3は測量機2の構成ブロック図である。測量機2は、モータドライブトータルステーションであり、水平角検出器21、鉛直角検出器22、水平回転駆動部23、鉛直回転駆動部24、演算制御部25、測距部26、追尾部27、通信部28、記憶部29、表示部18、入力部19を備える。
水平角検出器21と鉛直角検出器22は、エンコーダである。水平角検出器21は、托架部2bの回転軸に設けられ、托架部2bの水平角を検出する。鉛直角検出器22は、望遠鏡2cの回転軸に設けられ、望遠鏡2cの鉛直角を検出する。
水平回転駆動部23および鉛直回転駆動部24はモータである。水平回転駆動部23は托架部2bの回転軸を動かし、鉛直回転駆動部24は、望遠鏡2cの回転軸を動かす。両駆動部の協働により、望遠鏡2cの向きが変更される。水平角検出器21と鉛直角検出器22とで、測角部を構成する。水平回転駆動部23および鉛直回転駆動部24とで、駆動部を構成する。
測距部26は、送光部と受光部を備え、例えば赤外パルスレーザ等の測距光を送光部から出射し、その反射光を受光部で受光し、測距光と内部参照光との位相から測距する。測距部は、プリズム測定のみならず、ノンプリズム測定も可能となっている。
追尾部27は、測距光とは異なる波長の赤外線レーザなどの追尾光として出射する追尾送光系と、CCDセンサまたはCMOSセンサなどのイメージセンサを有する追尾受光系を有する。追尾部27は、追尾光を含む風景画像と追尾光を除いた風景画像を取得し、両画像を演算制御部25に送る。演算制御部25は、両画像の差分からターゲット像の中心を求め、ターゲット像の中心と望遠鏡2cの視軸中心からの隔たりが一定値以内に収まる位置をターゲットの位置として検出し、常に望遠鏡2cがターゲットの方向を向くように、自動追尾する。
通信部28は、外部ネットワークとの通信を可能にするものであり、例えば、インターネットプロトコル(TCP/IP)を用いてインターネットを接続し、処理PC6およびコントローラ3と情報の送受信を行う。無線通信はこれに制限されず、既知の無線通信を使用することができる。測量機2が測定(測距・測角)した測定結果は、通信部28を介して処理PC6へ送られる。
演算制御部25は、CPUを備えたマイクロコントローラであり、制御として、通信部28を介した情報の送受信、水平回転駆動部23および鉛直回転駆動部24による各回転軸の駆動、測距部26による測距、水平角検出器21および鉛直角検出器22による測角、追尾部27による自動追尾を行う。
記憶部29は、ROMおよびRAMを備える。ROMには演算制御部25のためのプログラムが収納され、RAMにて各制御が実行される。
表示部18、入力部19は、測量機2のインターフェースである。入力部は、電源キー、数字キー、実行キーなどを有し、作業者が、測量機2の操作や測量機2に対する情報を入力できる。本実施形態においては、測量作業の指令や結果の確認などは、通信部28を介して処理PC6にて行うことも可能となっている。また、測量機2への命令は、コントローラ3からも可能となっている。
(コントローラ3)
図4は、コントローラ3の外観図である。作業者に装着された状態を示す。図5は、コントローラ3の使用状態であり、作業者がコントローラ3を装着してポール5を把持した状態を示す。図6は、コントローラ3の構成ブロック図である。
コントローラ3は、グローブ型のウェアラブル装置であり、作業者の一方の手(好ましくは作業者の利き手)に装着される。全体が柔軟性のある樹脂製の繊維布もしくは繊維シートで構成されており、従来のグローブと同様に、作業者は装着したまま自在に手を動かすことができる。
コントローラ3は、測量機2の遠隔操作装置であり、手の甲を覆う部分に通信部33と制御部35が設けられている。入力部34は、グローブの指先部、本実施形態においては、親指の指紋部分である親指の腹部に設けられている。
通信部33は、通信部28と同等の構成を備え、測量機2および処理PC6と情報の送受信が可能となっている。アイウェア装置4と情報の送受信を行ってもよい。
本実施形態の入力部34は、接触型のセンサであり、被接触物の動き、接触時間、接触圧力、接触方向などにより、複数の命令が入力可能となっている。例えば、所定の面積をもつタッチセンサであり、二枚の電極膜を接触しないように隙間を作り、被接触物が押圧して電極膜同士を接触させることで通電し、電気が流れた場所が検知される。物理的な接触が検知されることから、接触位置、接触位置の変化方向、接触時間を検出することができる。
図5に示すように、作業者はコントローラ3を装着した手でポール5を把持し、把持したまま、入力部34をポール5に押し付けるようにして固定した状態で使用する。例えば、作業者が入力部34のある親指部をポール5に接触させたままフリックするように軽くはじくように移動させることで、その移動方向により命令を選択でき、さらに比較的強く所定時間(2秒程度)以上押しつけると決定が入力される、軽く二回押すことでキャンセルなど、検知パターンにより、複数の命令が入力できる。入力された命令は、測量機2へ送られる。
入力部34は、これに限られず、十字もしくは並列に配置された押圧センサ(圧力センサ)であり、複数のセンサで選択/決定/キャンセルが入力可能な構成としてもよい。作業者はグローブを装着して、親指の腹の中央/右側/左側/指先部を把持したポール5に押し付けること、およびその押しつけ圧力や押圧時間などにより、ポール5を把持したまま入力部34から各種命令の入力が可能となる。押圧スイッチなど物理的なスイッチを用いてもよい。
制御部35は、少なくともCPUおよびメモリ(RAM、ROM)を集積回路に実装したマイクロコンピュータである。制御部35は、入力部34で入力された情報を、通信部33を介して処理PC6または測量機2に出力する。
コントローラ3は、二重構造のグローブで、外面と内面を持ち、袋部となっている内側に機器類や図示しない配線類が設けられており、機器類は外部にも内部にも露出していない。このため、グローブは裏返しにしても使用できるリバーシブル仕様であり、右手にも左手にも装着可能となっている。使用者の利き手がどちらであっても、違和感なくコントローラ3を装着して使用することができる。入力部34が表面に露出し、右手用/左手用のコントローラ3を用いる構成でもよい。
コントローラ3が、手に装着するグローブ型であることで、作業者は少なくとも片手の数本の指の腹および手の平でポール5を把持しつつ、残りの指(本実施形態では親指)で命令操作ができるように構成されている。これにより、作業者はポール5を持って測定点Yを決定したときに、その姿勢のまま測量機2に測定(測距・測角)の実施命令を送ることができる。作業者が測量機2に命令を送る行動でポール5が傾いてしまうことが抑制される。作業者は目線も外さずに、両手でポール5を掴んだまま一連の行動が可能となる。作業者は利き手にコントローラ3を装着でき、使い勝手がよい。両手でポール5を把持して、位置決めを確実に行うことができ、なおかつそのまま命令を入力することができるため、ポール5が傾くことを抑制できる。測量に本質的には不要な動作が省略され、時間短縮可能かつユーザーフレンドリーで、測量工程を効率良く行うことができる。
(アイウェア装置4)
図7はアイウェア装置4の外観斜視図である。図8はアイウェア装置4の構成ブロック図である。
アイウェア装置4は、作業者の頭部に装着されるウェアラブルデバイスであり、ディスプレイ41と、制御部42と、演算制御部43、通信部44、相対位置検出センサ45、相対方向検出センサ46、記憶部47、操作スイッチ48を備える。
ディスプレイ41は、作業者が装着したときに、作業者の両眼を覆うゴーグルレンズ型の透過ディスプレイである。一例として、ディスプレイ41は、ハーフミラーによる光学シースルーのディスプレイであり、現場風景(以下、「現物」という)の実像に重ねて、制御部42が受信した虚像が合成された映像を観察できるように構成されている。
通信部44は、前述の通信部と同等の構成を備え、測量機2および処理PC6と情報の送受信を行う。
相対位置検出センサ45は、測量現場に設置された、GPS用アンテナ、WiFi(登録商標)アクセスポイント、超音波発振器などから無線測位を行い、測量現場内でのアイウェア装置4の位置を検出する。
相対方向検出センサ46は、三軸加速度センサまたはジャイロセンサと、傾斜センサとの組み合わせから成る。相対方向検出センサ46は、上下方向をZ軸、左右方向をY軸、前後方向をX軸として、アイウェア装置4の傾きを検出する。
記憶部47は、例えばメモリカードである。記憶部47は、アイウェア装置4の演算制御部43が機能を実行するためのプログラムを格納している。操作スイッチ48は、例えば、アイウェア装置4の電源をON/OFFするための電源ボタンである。
制御部42は、少なくともCPUおよびメモリ(RAM、ROM)を集積回路に実装したマイクロコンピュータである。演算制御部43は、相対位置検出センサ45および相対方向検出センサ46の検出したアイウェア装置4の位置および方向の情報を処理PC6に、通信部44を介して出力する。また、処理PC6から測定点Yの位置データを受信して、ディスプレイ41上の現場の風景に重ねて表示する。
(処理PC6)
図9は、処理PC6の構成ブロック図である。処理PC6は、汎用パーソナルコンピュータ、PLD(programmable Logic Device)などによる専用ハードウェア、タブレット端末、またはスマートフォンなどである。処理PC6は、通信部61と、表示部62と、操作部63と、記憶部64と、演算処理部65を有する。
通信部61は、前述の通信部と同等の構造を有し、測量機2およびアイウェア装置4と情報の送受信を行う。
表示部62は、例えば液晶ディスプレイである。操作部63は、キーボード、マウスなどであり、種々の入力・選択・決定を可能にする。
記憶部64は、例えばHDDドライブである。記憶部64は、測量現場の情報、少なくとも、測量現場で測定すべき測定点Y(Y1,Y2,Y3・・・)の座標データである測定点データDを格納する。
演算処理部65は、少なくともCPUおよびメモリ(RAM、ROMなど)を集積回路に実装した制御ユニットである。演算処理部65には、同期計測部651がソフトウェア的に構成されている。
同期計測部651は、測量機2の位置および方向に関する情報と、アイウェア装置4の位置・方向に関する情報を受信し、測量機2の座標空間と、測定点データDの座標空間と、アイウェア装置4の座標空間とが一致するように変換してアイウェア装置4に送信する。
以下、このように座標空間の異なる装置またはデータにおける位置および方向に関する情報の座標空間を一致させ、共通の基準点を原点とする空間で、それぞれの装置に関する相対位置・相対方向を管理することを同期という。
(測定方法)
次に、測量システム1の使用の例(杭打ち作業)を説明する。図10は、測量システム1を用いた作業の工程フローである。図11は、ステップS102~S105の作業イメージ図である。図12および図13は測量システム1によるアイウェア装置4から見える画像の一例である。
まず、ステップS101で、前処理として、作業者はCADデータや杭打ちのため測定点データDを含む測量現場の情報を処理PC6に入力する。入力された情報は、処理PC6の記憶部64に収納される。
次に、ステップS102に移行して、作業者は、測量現場に、基準点と基準方向を設定する。基準点は、規定座標など、現場内の任意の点を選択する。基準方向は、基準点とは別の特徴点を任意に選択し、基準点-特徴点の方向とする。
次に、ステップS103に移行して、作業者は、測量機2の同期を行う。具体的には、作業者は、現場内の基準点に測量機2を設置し、上記基準点と上記特徴点を含む後方交会などの観測により、測量機2の絶対座標を把握する。測量機2は、座標情報を処理PC6に送信する。処理PC6の同期計測部651は、基準点の絶対座標を(x,y,z)=(0,0,0)に変換し、かつ基準方向を水平角0度と認識して、以後、測量機2からの情報に関して、基準点を原点とする空間で、測量機2の相対位置・相対方向を管理する。
次に、ステップS104に移行して、作業者は、アイウェア装置4の同期を行う。具体的には、基準点にアイウェア装置4を設置し、ディスプレイ41の中心を基準方向に一致させ、相対位置検出センサ45の(x,y,z)を(0,0,0)、かつ、相対方向検出センサ46の(roll,pitch,yaw)を(0,0,0)とする。処理PC6の同期計測部651は、以後、アイウェア装置4から取得するデータについて、基準点を原点とする空間で、アイウェア装置4の相対位置・相対方向を管理する。この結果、アイウェア装置4についても、基準点を原点とする空間で、相対位置・相対方向が管理される。
アイウェア装置4の同期は、上記方法に限定されず、例えば、アイウェア装置4に、アイウェア装置4の中心および方向軸を示したレーザ装置を設け、レーザをガイドにして、基準点および基準方向を一致させることにより行ってもよい。
あるいは、測量機2にアイウェア装置4の収納位置を設け、あらかじめアイウェア装置4と測量機2の相対関係を確定させておき、アイウェア装置4を測量機2の収納位置に収納した状態で、同期を開始することで、両者の相対関係を一致させてもよい。
次に、ステップS105に移行して、アイウェア装置4のディスプレイ41に、同期された測定点データDが表示される。作業者がアイウェア装置4を装着して測量現場内を眺めと、アイウェア装置4の現物に対する相対位置・相対方向は処理PC6で管理されているから、処理PC6からアイウェア装置4に、現物(ディスプレイ41越しに見える風景の実像)に同期された測定点データDが虚像として表示される。
図12は、アイウェア装置4を装着した作業者のディスプレイ41越しに見える表示の一例である。現物は実線、虚像は破線で示されている。図12に示すように、アイウェア装置4を装着した作業者は、測定点Yを、現物に重ねて確認することができる。即ち、各測定点Y(Y1、Y2、Y3・・・)は同期されて、現場に合わせて、対応箇所に虚像の逆三角マークM(M1、M2、M3・・・)として視認できるように示される。任意の点(図12では測量機2の設置点)からの所定距離毎にラインLが、マトリックス状に表示される。逆三角マークM(M1、M2、M3・・・)は、未測定と測定済みとでは色分けされる、作業者(アイウェア装置4)からの距離が大きいほど小さく表示されるなど、認識しやすく表示されると好ましい。
次に、ステップS106に移行して、次に測定すべき測定点Yn(杭打ち点)が決定される。作業者は利き手にコントローラ3を装着してポール5を把持し、ディスプレイ41に測定点Y(Y1、Y2、Y3・・・)として表示される逆三角マークM(M1、M2、M3・・・)から、一つの逆三角マークMnを、入力部34で次の測定点Ynとして選択して決定する。例えば、選択中の逆三角マークMnはディスプレイ41上で点滅し、次の測定点Ynとして決定されると、当該逆三角マークMnはサークルCで囲まれるなど、作業者にわかりやすく表示される。測量機2は、決定された測定点Ynへ望遠鏡2cを向ける。
次に、ステップS107に移行して、作業者は、測定すべき測定点Ynへポール5を持って移動する。ターゲット7が、測定点Ynから所定範囲(おおむね1m)まで近づくと、測量機2にターゲット7がロックされ、追尾部27が自動追尾を開始する。図13(A)はターゲット7がロックされた際にディスプレイ41に追加される虚像である。図13においては、全てディスプレイ41に表示される虚像であり、実線で示す。詳細なターゲット7の位置情報として、測定点Ynまでの距離と方向の詳細な画像R1が、ディスプレイ41に表示される。追尾中は随時データが送信され、リアルタイムにターゲット7の位置がディスプレイ41に表示される。
ディスプレイ41には、これに限られず、状況に応じて、必要な情報や入力可能な命令が画像で表示されてもよい。図13(B)では一例として追尾時の追加画像を示す。測距・測角を測量機2に命令する「測定」の画像R21、ターゲット7のロックが外れてしまったときのための「再追尾」の画像R22、メニュー画像に移行するための「メニュー」の画像R23、などの命令が文字のみの画像で示される。選択された命令はハイライト表示などにより、作業者に理解しやすく示される。
図13(C)に示される画像R3は、メニュー内容の一例であり、接続されるコントロールデバイスを示し、ディスプレイ41にアイコンとして表示される。例えば、画像R31は、ポール5に取り付けされる小型のコントールデバイスを示す。本デバイスでは入力のみ可能で、小型であるため作業者はポール5を把持したまま命令の入力が可能である。画像R32は、グローブ型のコントロールデバイスであるコントローラ3を示す。画像R33は、アイウェア装置4にオプションとして追加されるアイセンサであり、目の動きで命令の入力が可能となっている。画像R34は、スマートフォンや専用端末などの別体として構成されるコントロールデバイスである。本デバイスではディスプレイやスイッチを備え、スイッチから入力が可能となっている。
測量システム1は、コントローラ3以外にも、1以上の命令入力可能なデバイス(コントロールデバイス)を備えることができ、複数のデバイスと同時接続可能で、接続されたデバイスのいずれからも命令の入力が可能となっている。本実施形態ではコントローラ3が測量機2のコントロールデバイスとして接続されており、画像R32は接続されていることを示すためにハイライト表示されている。測量システム1においては、複数のコントロールデバイスと測量機2とを接続可能に構成することで、作業者の熟練度や装置との相性に合わせて、快適な作業環境を構築できる。
次に、ステップS108に移行して、作業者は、ディスプレイ41に表示される画像R1で詳細な位置を把握して、測定点Ynにポール5をおおむね鉛直に立てる。作業者がそのままの姿勢で、親指部の入力部34をポール5に数秒軽く押し付け、測定の開始の命令を測量機2に送ると、測量機2が測距および測角を開始し、測定結果が処理PC6に送られる。
次に、ステップS109で測定点の測定が完了すると、測定データは処理PC6に送られ、また次の測定すべき測定点Ynの選択にステップS106へ移動し、全ての測定点Yの測定が完了するまでステップS106~ステップS109を繰り返す。全ての測定点Yの測定を終えると、終了する。
(作用効果)
上記に示すように、測量システム1によれば、アイウェア装置4に測定点Y(Y1、Y2、Y3・・・)が表示され、作業者は現物の風景に重ねて位置を把握できる。命令の入力も、作業者がポール5を保持した姿勢のまま、指先だけで行うことができる。無駄な作業が省略されて作業者一人での測量が効率化される。従来のように、ディスプレイを有するデバイスを所持する必要がなく、デバイス操作のために、ディスプレイへ目線をそらすことも、入力のために手を移動させることも、片手でポールを支える必要もない。また、入力部34から命令指示が確実に実施される。作業者は一人で測量の一連の作業をシームレスに行うことができ、作業効率が向上する。
図14はコントローラ3の他の使用状態である。ポール5が細い場合や低い場合、また作業者の手が大きい場合などにおいては、作業者は、グローブの親指部と人差し指部を触れ合わせることで、入力部34から命令を入力することもできる。このように、入力部34が検知する被接触物はポール5に限られず、例えばグローブの人差し指部や中指部などを被接触物としてもよい。状況に合わせて作業者は親指の動きで入力部34から命令を入力できる。
また、コントローラ3にスピーカーや発光部(LED)を設け、操作に合わせて音や光が生ずる構成とすると、作業者が入力を確認でき、好ましい。
(変形例1)
図15は本実施の形態の変形例に係るコントローラ103の外観斜視図である。図16はコントローラ103の使用状態を示す。同じ構成を示すものは同じ符号を付して説明を省略する。
コントローラ103は、概略、コントローラ3と同等の構成を有し、入力部134は、グローブの親指指先部に設けられた第1入力部134aおよび人差し指の指先部に設けられた第2入力部134bからなる。図16に示すように、コントローラ103を使用の際は、作業者はコントローラ103であるグローブを装着して、ポール5を把持しつつ、親指部と人差し指部でポール5を挟持する。人差し指部の第2入力部134bは単なる押圧センサであり、決定の命令のみを入力できる。第1入力部134a,第2入力部134bにより、作業者が人差し指と親指で測量機2を操作できるようになり、操作性が向上する。
(変形例2)
図17は本実施の形態の別の変形例に係るコントローラ203の外観斜視図である。図18はコントローラ203の使用状態を示す。同じ構成を示すものは同じ符号を付して説明を省略する。
コントローラ203は、概略、コントローラ3と同等の構成を有し、入力部234は、グローブの親指の腹部に露出して設けられた第1入力部234aと、人差し指の指先部に設けられた第2入力部234bからなる。第1入力部234aは、静電センサであり、電気を通す膜に電極が重ならないよう縦横に配置されており、導電物の接触により静電容量が変化することで、接触位置が検知される。第2入力部234bには、電気を通す部材が用いられており、コントローラ203を装着した作業者が人差し指と親指をすり合わせることで、命令が入力される。例えば、親指と人差し指を合わせてはじくことで「選択」、二回軽く合わせることで「決定」など、対となる第1入力部234a、第2入力部234bにより、作業者の指先の動きのパターンで複数の命令が入力できる。
グローブ型のコントローラ3の入力部は、上述した形態に限られず、赤外線センサや超音波センサなど、従来周知の構成を用いることができる。
以上、本発明の好ましい実施形態について述べたが、上記の実施形態は本発明の一例に過ぎない。例えば、演算処理部65および記憶部64を測量機2に含めることができる。これにより、処理PC6の機能を測量機2に集約でき、設定が容易になり、持ち運びや移動が容易になる。このように当業者の知識に基づいて変形させることが可能である。
このような変形や実施例の組み合わせは当業者の知識に基づいて行うことができ、そのような形態も本発明の範囲に含まれる。
1 :測量システム
2 :測量機
3 :コントローラ
4 :アイウェア装置
5 :ポール
6 :処理PC
7 :ターゲット
19 :入力部
21 :水平角検出器
22 :鉛直角検出器
23 :水平回転駆動部
24 :鉛直回転駆動部
25 :演算制御部
26 :測距部
27 :追尾部
28 :通信部
29 :記憶部
33 :通信部
34 :入力部
41 :ディスプレイ
44 :通信部
45 :相対位置検出センサ
46 :相対方向検出センサ
47 :記憶部
64 :記憶部
65 :演算処理部
651 :同期計測部
Y :測定点

Claims (5)

  1. ターゲット(7)と、前記ターゲット(7)が取り付けられるポール(5)と、
    前記ターゲット(7)までの距離を計測する測距部(26)と、前記測距部(26)の向く鉛直角と水平角を測角する測角部(21,22)と、前記測角部(21,22)の鉛直角および水平角を設定された角度に駆動する駆動部(23,24)と、通信部(28)と、入力された命令を実施する演算制御部(25)とを備え、前記ターゲット(5)の測距及び測角が可能な測量機(2)と、
    通信部(33)と、命令を入力する入力部(34)とを有し、前記測量機(2)と通信して前記測量機(2)に命令を送るコントローラ(3)と、
    通信部(44)と、ディスプレイ(41)と、装置の位置を検出する相対位置検出センサ(45)と、装置の方向を検出する相対方向検出センサ(46)とを備えるアイウェア装置(4)と、
    測量現場の測定点を記憶する記憶部(64)と、
    前記アイウェア装置(4)の位置および方向に関する情報を受領し、前記測定点の座標と同期する同期計測部(651)を備える演算処理部(65)と、
    を備え、
    前記コントローラ(3)は手に装着するグローブであり、指先部に前記入力部(34)が設けられており、
    前記ディスプレイ(41)には、測量現場の風景に重ねて、前記演算処理部(65)が算出した前記測定点が表示され、前記コントローラ(3)から入力された命令により前記測量機(2)による測距および測角が実施される、
    ことを特徴とする測量システム(1)。
  2. 前記入力部(34)は、少なくとも前記グローブの親指指先部に設けられた、接触を検知するセンサであり、接触方向、被接触物の移動方向、接触強さ、接触箇所等を検知し、検知パターンにより複数の種類の命令を入力できるよう構成される、
    ことを特徴とする請求項1に記載の測量システム(1)。
  3. 前記センサは、静電センサまたは圧力センサである、
    ことを特徴とする請求項2に記載の測量システム(1)。
  4. 前記測量機(2)は、前記ターゲット(7)を自動追尾する追尾部(27)を有し、前記ターゲット(7)が前記測定点から所定範囲内にあると、自動で追尾を行い、前記ディスプレイ(41)には、リアルタイムに前記ターゲット(7)の位置情報が表示される、
    ことを特徴とする請求項1~請求項3のいずれかに記載の測量システム(1)。
  5. 前記記憶部(64)および前記演算処理部(65)は、前記測量機(2)に備えられる、
    ことを特徴とする請求項1~請求項4のいずれかに記載の測量システム(1)。
JP2021155916A 2021-09-24 2021-09-24 測量システム Pending JP2023047025A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021155916A JP2023047025A (ja) 2021-09-24 2021-09-24 測量システム
US17/940,578 US20230096054A1 (en) 2021-09-24 2022-09-08 Survey system
EP22196911.6A EP4155666A1 (en) 2021-09-24 2022-09-21 Survey system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021155916A JP2023047025A (ja) 2021-09-24 2021-09-24 測量システム

Publications (1)

Publication Number Publication Date
JP2023047025A true JP2023047025A (ja) 2023-04-05

Family

ID=83400777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021155916A Pending JP2023047025A (ja) 2021-09-24 2021-09-24 測量システム

Country Status (3)

Country Link
US (1) US20230096054A1 (ja)
EP (1) EP4155666A1 (ja)
JP (1) JP2023047025A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5060358B2 (ja) 2008-03-25 2012-10-31 株式会社トプコン 測量システム
JP7240996B2 (ja) * 2019-09-18 2023-03-16 株式会社トプコン アイウェア装置を用いた測量システムおよび測量方法
JP7341861B2 (ja) * 2019-11-11 2023-09-11 株式会社トプコン アイウェア装置を用いた管理システムおよび管理方法

Also Published As

Publication number Publication date
EP4155666A1 (en) 2023-03-29
US20230096054A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
EP3320413B1 (en) System for tracking a handheld device in virtual reality
US10521011B2 (en) Calibration of inertial measurement units attached to arms of a user and to a head mounted device
CN103970265B (zh) 具有触觉反馈的增强现实用户接口
KR101666096B1 (ko) 강화된 제스처 기반 상호작용 시스템 및 방법
CN103502772A (zh) 坐标定位机器控制器
WO2018004757A1 (en) Hover touch input compensation in augmented and/or virtual reality
JP5561092B2 (ja) 入力装置、入力制御システム、情報処理方法及びプログラム
JP2013214252A (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
CN108027987B (zh) 信息处理方法、信息处理装置及信息处理系统
JP2023053397A (ja) 座標算出システム
RU179301U1 (ru) Перчатка виртуальной реальности
JP7240996B2 (ja) アイウェア装置を用いた測量システムおよび測量方法
TW200941300A (en) Input device, control device, control system, control method and handheld device
JP2016110177A (ja) 3次元入力装置及び入力システム
CN115777091A (zh) 检测装置及检测方法
JP2023047025A (ja) 測量システム
CN117784926A (zh) 控制装置、控制方法和计算机可读存储介质
JP2021177157A (ja) アイウェア表示システム
JP6270557B2 (ja) 情報入出力装置及び情報入出力方法
JP2023047024A (ja) 測量システム
US20220206580A1 (en) Input device and display input system
JP2023047026A (ja) 測量システム
JP3223025U (ja) 電子機器用コントローラ
US11681370B2 (en) Handheld controller and control method
KR20040020262A (ko) 펜 타입의 다기능 마우스 입력장치

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231120