JP7226928B2 - 測量装置 - Google Patents

測量装置 Download PDF

Info

Publication number
JP7226928B2
JP7226928B2 JP2018104483A JP2018104483A JP7226928B2 JP 7226928 B2 JP7226928 B2 JP 7226928B2 JP 2018104483 A JP2018104483 A JP 2018104483A JP 2018104483 A JP2018104483 A JP 2018104483A JP 7226928 B2 JP7226928 B2 JP 7226928B2
Authority
JP
Japan
Prior art keywords
unit
gesture
output
surveying instrument
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018104483A
Other languages
English (en)
Other versions
JP2019211222A (ja
JP2019211222A5 (ja
Inventor
大輔 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2018104483A priority Critical patent/JP7226928B2/ja
Priority to US16/424,012 priority patent/US20190369380A1/en
Publication of JP2019211222A publication Critical patent/JP2019211222A/ja
Publication of JP2019211222A5 publication Critical patent/JP2019211222A5/ja
Application granted granted Critical
Publication of JP7226928B2 publication Critical patent/JP7226928B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/16Housings; Caps; Mountings; Supports, e.g. with counterweight

Description

本発明は、測量装置に関し、より詳細には、測量装置のユーザインタフェイスに関する。
従来、測量装置のユーザインタフェイスは、ディスプレイ表示とキー入力の組み合わせまたはタッチパネル入力であった。例えば特許文献1には、作業者の操作感覚と装置の動きとがマッチングする様にしたタッチパネル式の操作制御パネルを備える測量機が開示されている。
特開2014-178274号公報
このように、マンマシンインタフェイスとしての操作性が向上した操作制御パネルは種々提案されているが、ディスプレイを見ないと測量装置を操作できず、ディスプレイが小さかったり、暗かったり、表面反射したりして見づらい場合がある。
また、ディスプレイ、キーボードを搭載すると、機械が全体として大型化するという問題があった。また、入力の際は、測量装置に作業者が直接触れるため、測量装置が設置場所から動いて、測定角度が変わったり、測量装置が振動したりすることがあるという問題があった。このため、直接触れずに操作することができる測量装置として、ジェスチャインタフェイスを有する測量装置の開発が求められていた。
本発明は、かかる事情を鑑みてなされたものであり、ジェスチャインタフェイスを有する測量装置を提供することを目的とする。
上記目的を達成するために、本発明の一つの態様に係る測量装置は、ターゲットを測量可能な測量部と画像を取得可能な撮像部と、前記測量部および前記撮像部を制御するように構成された演算制御部と、記憶部とを備える測量装置であって、前記記憶部は、入力ジェスチャである作業者の所定の動作と、測量装置へのオペレーションとを関連付けた入力識別情報を有し、前記演算制御部は、前記画像から入力ジェスチャを認識する画像認識部、および該画像認識部で認識された入力ジェスチャに対応する測量装置へのオペレーションを、入力ジェスチャの示す内容として識別する画像識別部を備えることを特徴とする。
また、本発明の別の態様に係る測量装置は、ターゲットを測量可能な測量部と前記測量部を備える望遠鏡と、前記望遠鏡を鉛直軸周りに水平回転する水平回転駆動部と、前記望遠鏡を水平軸周りに鉛直回転する鉛直回転駆動部と、前記測量部、前記水平回転駆動部および前記鉛直回転駆動部を制御する演算制御部と記憶部とを備える測量装置であって、前記記憶部は、作業者に対する出力内容と、測量装置の動作としての出力ジェスチャとを関連付けた出力変換情報を有し、前記演算制御部は、前記出力変換情報に基いて作業者に対する出力内容を出力ジェスチャに変換し、前記水平回転駆動部および前記鉛直回転駆動部を回転駆動することにより出力ジェスチャを実行するジェスチャ実行部を備えることを特徴とする。
上記態様において、前記測量部を備える望遠鏡と、前記望遠鏡を鉛直軸周りに水平回転する水平回転駆動部と、前記望遠鏡を水平軸周りに鉛直回転する鉛直回転駆動部と、前記測量部、前記水平回転駆動部および前記鉛直回転駆動部を制御する演算制御部と記憶部とを備える測量装置であって、前記記憶部は、作業者に対する出力内容と、測量装置の動作としての出力ジェスチャとを関連付けた出力変換情報を有し、前記演算制御部は、前記出力変換情報に基いて作業者に対する出力内容を出力ジェスチャに変換し、前記水平回転駆動部および前記鉛直回転駆動部を回転駆動することにより出力ジェスチャを実行するジェスチャ実行部を備えることも好ましい。
また、上記態様において、第1の照明用発光部を備え、前記ジェスチャ実行部は、前記第1の照明用発光部を制御することにより、ジェスチャを表現することも好ましい。
また、上記態様において、第2の照明用発光部を備え前記第2の照明用発光部は、前記測量装置自体を照明することも好ましい。
また、上記態様において、第3の照明用発光部を備え、前記第3の照明用発光部は、前記入力ジェスチャを行う作業者を照明することも好ましい。
また、上記態様において、音声入力部と、音声出力部とを備え、前記演算制御部は、前記音声入力部から入力された音声を認識する音声認識部、および作業者に対する出力内容を音声メッセージに変換し、前記音声出力部に出力する音声変換部を備えることを特徴とすることも好ましい。
上記構成によれば、ジェスチャインタフェイスを有する測量装置の提供が可能となる。
本発明の第1の実施の形態に係る測量装置の構成ブロック図である。 同形態に係る測量装置の右方斜視図である。 同形態に係る測量装置におけるジェスチャ入力のフローチャートである。 同形態に係る入力識別情報の例を示す図である。 同形態に係る測量装置におけるジェスチャ出力のフローチャートである。 同形態に係るの出力変換情報の例を示す図である。 同形態に係る測量装置のジェスチャインタフェイスを用いた現況測量のフローチャートである。 同現況測量に適用される入力識別情報の例を示す図である。 同形態に係る測量装置のジェスチャインタフェイスを用いた杭打ち作業のフローチャートである。 同杭打ち作業に適用される入力識別情報の例を示す図である。 同杭打ち作業に適用される出力変換情報の例を示す図である。 本発明の第2の実施の形態に係る測量装置の構成ブロック図である。 同形態に係る測量装置における入力のフローチャートである。 同形態に係る測量装置における出力のフローチャートである。
本発明の好適な実施の形態について、図面を参照しながら説明する。以下の実施の形態において、同一の構成には同一の符号を付し、重複する説明を省略する。
第1の実施の形態
(測量機の構成)
図1は、本発明の第1の実施の形態にかかる測量装置TSの構成ブロック図、図2は測量装置TSの右方斜視図である。
測量装置TSは、トータルステーションである。図2に示す通り、測量装置TSは、外観上、整準器の上に設けられた基盤部2a、基盤部2a上を水平回転する托架部2b、および托架部2bの中央で鉛直回転する望遠鏡2cを備える。望遠鏡2cは、ターゲットを視準する視準光学系を備える。
また、測量装置TSは、機能的には、図1に示すように、EDM11、水平角検出器12、鉛直角検出器13、傾斜センサ14、自動視準部15、水平回転駆動部16、鉛直回転駆動部17、追尾部18、演算制御部20、記憶部30、入力部41、表示部42、第1の照明用発光部43、第2の照明用発光部44、第3の照明用発光部45および撮像部46を備える。
EDM11は、発光素子、測距光学系および受光素子を備える。EDM11は、望遠鏡2cの内部に配置され、測距光学系は、視準光学系と光学要素を共有する。EDM11は、発光素子から測距光を出射し、ターゲットからの反射光を受光素子で受光して、ターゲットを測距する。
水平角検出器12および鉛直角検出器13は、ロータリーエンコーダであり、後述する水平回転駆動部16および鉛直回転駆動部17でそれぞれ駆動される托架部2bおよび望遠鏡2cの回転軸周りの回転角度を検出し、視準光軸Aの水平角および鉛直角を求める。
EDM11、水平角検出器12、および鉛直角検出器13は、測量装置TSの要部である測量部10を形成している。
傾斜センサ14は、整準器に備えられ、測量機本体の傾斜を検出し水平に整準するために使用される。
自動視準部15は、視準光学系、視準用光源、画像センサ等から構成され、視準光を視準用光源から出射し、ターゲットからの反射視準光を画像センサで受光して、受光結果に基づいて、視準光軸をターゲットに合致させる自動視準を行う。
水平回転駆動部16および鉛直回転駆動部17はモータであり、演算制御部20に制御されて、それぞれ托架部2bを水平回転させ、望遠鏡2cを鉛直回転させる。
追尾部18は、発光素子、追尾光学系および受光素子を備え、測距光学系と光学要素を共有する。追尾部18は、測距光とは異なる波長の赤外レーザ光を追尾対象物(ターゲット)に投射し、該追尾対象物からの反射光を受光し、受光結果に基づいて追尾対象物の追尾を行う様に構成されている。
演算制御部20は、CPU(Central・Processing・Unit)、GPU(Graphical・Processing・Unit)を備える。演算制御部20は、測量装置TSの機能を発揮するための種々の処理を行う。
また、演算制御部20は、機能部として、画像認識部21、画像識別部22、およびジェスチャ実行部23を備える。
画像認識部21は、後述する撮像部46により取得された画像を認識する。具体的には、撮像部46で取得した画像から、作業者の動作を、入力ジェスチャとして認識する。
なお、本明細書において、用語「画像」は、撮影対象が動作を行っている状態を撮影した動画像、および撮影対象の動作が一定時間停止している状態を撮影した静止画像を含む。
画像識別部22は、後述する、記憶部30に記憶された、入力ジェスチャである作業者の所定の動作と測量装置へのオペレーションとを関連付けた入力識別情報から、画像認識部21で認識された入力ジェスチャに対応する測量装置TSへのオペレーションを、入力ジェスチャの示す内容として識別する。
ジェスチャ実行部23は、記憶部30に記憶された、作業者に対する出力内容と、測量装置TSの動作としての出力ジェスチャとを関連付けた変換情報に基いて、作業者に対する出力内容を出力ジェスチャに変換する。また、ジェスチャ実行部23は、少なくとも水平回転駆動部16および鉛直回転駆動部17を回転駆動することにより出力ジェスチャを実行する。
各機能部は、人工知能により制御されるソフトウェアとして構成されていてもよいし、専用の演算回路によって構成されていてもよい。また、ソフトウェア的に構成された機能部と、専用の演算回路によって構成された機能部が混在していてもよい。
記憶部30は、ROM(Read・Only・Memory)およびRAM(Ramdam・Access・Memory)を備える。
ROMには、測量装置TS全体の動作に必要なプログラムおよびデータを格納する。これらプログラムは、RAMに読み出されて演算制御部20による実行が開始され、本実施の形態に測量装置TSの各種処理を行う。
RAMは、ジェスチャ入力処理およびジェスチャ出力を行うためのソフトウェアに従って作成されたプログラムおよびジェスチャ入力のデータおよびジェスチャ出力のデータを一時的に保持する。
記憶部30は、入力ジェスチャである作業者の所定の動作と、測量装置TSへのオペレーションとを関連付けた入力識別情報および作業者に対する出力内容と、出力ジェスチャとを関連付けた出力変換情報を記憶する。
入力部41は、例えば、操作ボタンであり、これにより、作業者は、指令を入力したり、設定の選択を行ったりできる。
表示部42は、例えば、液晶ディスプレイであり、演算制御部20の指令に応じて測定結果、環境情報、設定情報等種々の情報を表示する。また、入力部41より、作業者によって入力された指令を表示する。
なお、入力部41と表示部42とを一体的に構成して、タッチパネル式ディスプレイとしてもよい。
第1の照明用発光部43は、ガイドライトまたはレーザ照準であり、測設ラインまでの概略誘導を行う光を照射する。光源としては、例えば赤または緑のレーザ光を選択的に発光するLEDが用いられるが、これに限らず可視光を発光するものであってもよい。
また、第1の照明用発光部43は、ジェスチャ実行部23の制御に従って、点灯、点滅等を行う。第1の照明用発光部43の光は、水平回転駆動部16および鉛直回転駆動部17による望遠鏡2cの出力ジェスチャに伴って、測量装置TSの出力ジェスチャを構成することもできる。
第2の照明用発光部44は、例えば、測量装置TS本体の上部に備えらえれ(図2においては図示せず)、測量装置TS自体を照明する。また、光源としては白色のLED等を用いることができる。
第3の照明用発光部45は、例えば、望遠鏡2cの側面に、その光軸が、視準光軸Aに平行となるように設けられている。第3の照明用発光部45は、入力ジェスチャを行う作業者を照明する。また、光源としては、白色のLED等を用いることができる。
撮像部46は、ジェスチャ入力を行う手段であり、例えばカメラである。カメラとしては、作業者の身体の動きを撮影可能なRGBカメラ、赤外線カメラ、距離画像カメラや、作業者の身体の動きを検知可能な超音波カメラ、ステレオカメラ等を用いることができる。
撮像部46は、図2のように望遠鏡2cの上部に、その光軸が、視準光軸Aと平行になるように配置されている。
(ジェスチャ入力のフロー)
図3は、ジェスチャ入力における測量装置TSの動作のフローチャートである。
まず、ジェスチャ入力が開始すると、ステップS101で、画像認識部21は、撮像部46の入力を監視しながら、入力ジェスチャの入力を待機する。
次いで、ステップS102では、画像認識部21が、撮像部46で取得した画像から、作業者の動作を入力ジェスチャとして認識する。
画像が入力ジェスチャとして認識されない場合(No)、ステップS101に戻り、画像認識部21は、再度入力を待機する。
画像が入力ジェスチャとして認識された場合(Yes)、ステップS103で、画像識別部22が、記憶部30に記憶されている、入力ジェスチャである作業者の所定の動作と、測量装置TSへのオペレーションとを関連付けた入力識別情報に基いて、画像認識部21で認識された入力ジェスチャに対応する測量装置TSへのオペレーションを、入力ジェスチャの示す内容として識別する。
次いで、ステップS104では、ステップS103における識別結果に基いて、入力ジェスチャに対応する測量装置TSへのオペレーションを実行する。
図4は、入力識別情報として記憶部30に記憶された入力ジェスチャの例を示す。なお、以下、作業者および測量装置TSのジェスチャの例を示す図の説明において、「左」、「右」、「前」、「後」等の方向は、作業者のジェスチャに関しては、作業者から見た方向を意味し、測量装置TSのジェスチャに関しては、測量装置TSに向かって見た方向を意味するものとする。
また、動作の方向は、単なる例示であり、発明の内容を限定するものではない。例えば、図4(c)は、左手を右から左へと動かす入力ジェスチャにより、望遠鏡2cを左方向へと旋回するというオペレーションに関連付けられた例を示すが、これとは反対に、右手を左から右へと動かすジェスチャにより、望遠鏡2cを右方向へと旋回するというような左右対象なジェスチャも可能である。
このように、本実施の形態に係る測量装置TSによれば、作業者の入力ジェスチャにより測量装置TSに所定の動作を実行させることができるので、測量装置TSに直接触れずに操作することができる。したがって、入力の際に、測量装置TSに作業者が直接触れるために、測量装置が設置場所から動いて測定角度が変わったり、測量装置が振動したりする虞がない。
なお、本実施の形態において、第3の照明用発光部45を備え、遠隔で入力ジェスチャを行う作業者を照明することは、必須ではないが、このようにすると、画像認識部21による入力ジェスチャの認識が容易になるため好ましい。
(ジェスチャ出力のフロー)
次に、ジェスチャ出力における測量装置TSの動作について、図5,図6を参照しながら説明する。
記憶部30には、図6に示すような、作業者に対する出力内容と、測量装置TSの動作としての出力ジェスチャとを関連付けた出力変換情報が記憶されている。
測量装置TSがジェスチャ出力を開始すると、ステップS201において、ジェスチャ実行部23は、記憶部30に記憶された出力変換情報に基いて作業者に対する出力内容を出力ジェスチャに変換する。
次に、ステップS202において、ジェスチャ実行部23は、水平回転駆動部16および鉛直回転駆動部17を制御して、回転駆動することにより、指定した出力ジェスチャを実行し、処理を終了する。例えば、水平回転駆動部16と鉛直回転駆動部17との回転駆動の組み合わせにより、図6(a)~図6(d)に示すような出力ジェスチャを実行する。
あるいは、水平回転駆動部16と鉛直回転駆動部17との回転駆動の組み合わせに併せて第1の照明用発光部43を発光制御し、出力ジェスチャを表現してもよい。例えば、図6(e)に示すように、望遠鏡2cを左右に細かく動かすと共に第1の照明用発光部43を速く点滅させるという出力ジェスチャにより、測量装置TSにトラブルが発生したことを作業者に報知するようになっていてもよい。
このように、本実施の形態に係る測量装置TSによれば、測量装置TSの出力ジェスチャにより、測量装置TSから作業者に対する指示等を認識することができるので、作業者は表示部42を確認することなく作業を行うことができる。
また、本実施の形態において、水平回転駆動部16と鉛直回転駆動部17との回転駆動の組み合わせに併せて、第1の照明用発光部43が、ジェスチャ実行部23の制御に従って、点灯、点滅等を行い、出力ジェスチャを表現することは必須ではないが、このようにすると、多様な出力内容に対応することができるため好ましい。さらに、第1の照明用発光部43の発光により、測量装置の動作が視認されやすくなるので好ましい。
また、本実施の形態において、第2の照明用発光部44を備え、測量装置TS自体を照明することは、必須ではないが、このようにすると、作業者が遠隔にいる場合に、測量装置TSのジェスチャの視認性が高くなるので好ましい。
なお、入力識別情報および出力変換情報のリストは、出荷時に予め設定されていてもよいが、編集可能である。また、作業者により、測量機の所定の機能から随時設定可能に構成されていてもよい。
あるいは、画像認識部21による認識結果および画像識別部22による識別結果から、複数の作業者の身体的差異やジェスチャの動作的差異等による、誤差を回避できる程度の許容範囲を自律的に学習して、設定内容を自動的に追加および累加されるように構成されていてもよい。
<実施例1>
(ジェスチャインタフェイスを用いた現況測量)
このような測量装置TSのジェスチャインタフェイスを用いて現況測量を行う例を、図7,8を参照しながら説明する。
図7は、現況測量に係る測量装置TSの動作のフローチャートである。現況測量では、測量装置TSに、基準点の座標データを予め読み込ませ、記憶部30に記憶させている。作業者は、測量装置TSを設置し、現況測量動作を開始すると、作業者は、ポールプリズム(上部にプリズムを備える指示棒)を持って、基準点まで移動する。
ステップS301で、基準点において、作業者が測量装置TSに向かい、図8(a)のように、右手を真上に挙げてから正面に下ろすという入力ジェスチャを行うと、測量装置TSは基準点の測定を行う。測定が終わると作業者は変化点(土地の傾斜が変化する点)に移動する。
次に、ステップS302で、作業者が変化点において、測量装置TSに向かい、図8(b)のように、右手を斜め上にあげてくるくる回すという入力ジェスチャを行うと、測量装置TSは、変化点の測定を行う。測定が終わると作業者は終了点に移動する。
次に、ステップS303で、作業者が終了点において、測量装置TSに向い、図8(c)のように、右手を横にパンチを出すように突き出すという入力ジェスチャを行うと、測量装置TSは、終了点の測定を行う。測定が終わると測量装置TSは処理を終了する。
なお、各測定において、測量装置TSが、第1の照明用発光部43を点灯することにより、各測定の終了を作業者に報知するようになっていても良い。
通常、現況測量は、測量装置TS側に1名の作業者と、ポールプリズム側に1名の作業者という2人一組として、測量装置TS側の作業者が、測量装置を操作しつつ、ポールプリズム側の作業者と連携して行う。
しかし、本実施の形態に係る測量装置TSによれば、ポールプリズム側の作業者は、入力ジェスチャにより、遠隔地から測量装置TSを操作することが可能であるので、ポールプリズム側の作業者1名でも現況測量を行うことが可能となる。
<実施例2>
(ジェスチャインタフェイスを用いた杭打ち作業)
このような測量装置TSのジェスチャインタフェイスを用いて杭打ち作業を行う例を図9~図11を参照しながら説明する。
図9は、杭打ち作業に係る測量装置TSの動作のフローチャートである。測量装置TSには、あらかじめ杭打ちを実施する複数の測点の設計値データを読み込ませておく。まず作業者は、測量装置TSを設置し、杭打ち作業用プログラムの実行を開始し、ポールプリズムを持って最初の測点まで移動する。
最初の測点の近傍まで来たら、作業者は、例えば、図10(a)のように、両手で大きな丸を作るという入力ジェスチャにより、測量装置TSに対してプリズム追尾開始の指示を行う。すると、測量装置TSは、ステップS401で、プリズムの追尾を開始する。
次に、ステップS402で、測量装置TSは、ポールプリズムの現在位置と、設定された第1の測点の位置とを比較して、ポールプリズムが測点に近づく方向と距離とを算出する。測量装置TSは、ポールプリズムが測点に合致するように、ジェスチャで作業者を誘導する。
具体的には、例えば、ポールプリズムを右へ大きく移動する必要がある場合には、図11(a)のように、望遠鏡2cを右へ大きくすばやく2度振る。あるいは、ポールプリズムを上に少し移動する必要がある場合には、図11(b)のように望遠鏡2cを上へ小さくゆっくり2度振る。これにより、作業者は、測量装置TSからの指示に従って、ポールプリズムを移動する。
次に、ステップS403で、測量装置TSは、ポールプリズムが第1の測点に合致したかどうか、例えば、ポールプリズムが測点から±1cm以内に入ったか否かを判断する。
ポールプリズムが測点から±1cm以内に入っていない場合(No)、ステップS402に戻り、測量装置TSは、再度出力ジェスチャによる測点への誘導を行う。
一方、ポールプリズムが測点から±1cm以内に入った場合(Yes)、ステップS404において、杭打ち点にポールプリズムの位置が決定される。
次いで、ステップS405で、測量装置TSは、ポールプリズムの測定を行う。測定が終了すると、ステップS405で、測量装置TSは、図11(c)のように、望遠鏡2cを水平方向および鉛直方向にそれぞれ1回転し、測定の終了をジェスチャで出力する。
測定が完了すると、作業者は、杭打ちを行い、例えば図10(b)のように、ジェスチャにより、杭打ち完了を測量装置TSに報告する。測量装置TSは、ステップS407で入力を確認する。
次に、ステップS408において、測量装置TSは、予め設定された全ての測点について、測定が終わっているか否かを判断する。
全ての測点の測定が終わっている場合(Yes)、杭打ち作業の処理は終了する。
一方、全ての測点の測定が終わっていない場合(No)、ステップS401に戻り、次の測点に関してプリズムの追尾を開始し、全ての測点について杭打ちが完了するまでステップS401~S405の処理を繰り返す。
なお、本実施例では、追尾部18は、作業者のジェスチャ入力により、自動追尾を開始し、設計値データに基いて測点を自動追尾するように設定されている。しかし、作業者が測量装置TSから移動する時点で、測量装置TSの自動追尾を開始し、自動追尾し続けるように構成されていてもよい。
また、ステップS408の後、次の測点に移動するまでの間に、作業者が図10(c)の入力ジェスチャを入力することにより、測量装置TSが追尾を中断し、WAITモードになるように構成されていてもよい。
通常、杭打ち作業は、測量装置TS側に1名の作業者と、ポールプリズム側に1名の作業者という2人一組として、測量装置TS側の作業者が、測量装置を操作しつつ、ポールプリズム側の作業者と連携して行う。
しかし、本実施の形態に係る測量装置TSによれば、ポールプリズム側の作業者は、入力ジェスチャにより、遠隔地から測量装置TSを操作することが可能であり、また、測量装置TS側の動作状況を出力ジェスチャにより確認することができるので、ポールプリズム側の作業者1名でも杭打ち作業を行うことが可能となる。
<変形例>
なお、本実施の形態において、測量装置TSを遠隔から操作可能なリモートコントローラを備え、ジェスチャ入力に代えて、リモートコントローラによる入力を行い、出力のみを測量装置TSのジェスチャ出力とすることもできる。
第2の実施の形態
(測量機の構成)
図12は、本発明の第2の実施の形態にかかる測量装置TSaの構成ブロック図である。測量装置TSaは、第1の実施の形態に係る測量装置TSに加えて音声入力部47および音声出力部48を備える点で異なる。また、演算制御部20aが、第1の実施形態に係る演算制御部20に加えて、音声認識部24および 音声変換部25を備える点で異なる。
音声入力部47は、音声を入力する手段であり、例えば、集音マイク、指向性マイクである。音声入力部47は、托架部2bに備えられている。また、音声入力部47は、作業者が発する音声を集音し、音声信号に変換して演算制御部20aに出力する。
音声出力部48は、音声を出力する手段であり、例えば、スピーカである。音声出力部48は、托架部2bに備えられている。また、音声出力部48は、演算制御部20aからの指示に基いて、音声変換部25から出力されたメッセージを音声として出力する。
音声認識部24は、音声入力部47から入力された音声を、自然言語処理機能により認識し、テキスト指令に変換する。
音声変換部25は、演算制御部20aによる、作業者への出力内容を、音声メッセージに変換し、音声出力部48に出力する。
(入力のフロー)
図13は、ジェスチャ入力と音声入力を組み合わせた場合の測量装置TSaの動作のフローチャートである。
まず、入力モードが開始すると、ステップS401で、画像認識部21および音声認識部24は、撮像部46および音声入力部47の入力を監視しながら、入力を待機する。
次いで、ステップS402で、画像または音声の入力が発生すると、画像認識部21および音声認識部24が入力を検知し、画像が入力された場合には、撮像部46で取得した画像から、入力された画像を入力ジェスチャとして認識する。また、音声が入力された場合には、音声入力部47が取得した音声を、入力音声として認識する
ステップS402で画像も、音声も認識されない場合(No)、処理はステップS401に戻り、画像認識部21および音声認識部24が再度入力を待機する。
ステップS402で、画像が入力ジェスチャとして認識された場合(ジェスチャ)、ステップS403で、画像識別部22が、記憶部30に記憶されている、入力ジェスチャである作業者の所定の動作と、測量装置へのオペレーションとを関連付けた入力識別情報に基いて、画像認識部21で認識された入力ジェスチャに対応する測量装置TSへのオペレーションを、入力ジェスチャの示す内容として識別する。
次いで、ステップS404では、ステップS403における識別結果に基いて、入力ジェスチャに対応する測量装置TSへのオペレーションを実行し、入力を終了する。
ステップS403で、音声が入力音声として認識された場合(音声)、ステップS405で、音声認識部24が、入力音声をテキスト指令に変換する。
次いで、ステップS406で、指令に対応するオペレーションを実行し、入力を終了する。
(出力のフロー)
図14は、ジェスチャ出力と音声出力を組み合わせた場合の測量装置TSaの動作のフローチャートである。
出力が発生すると、ステップS501において、演算制御部20aは、出力内容について、予め定めされた出力形式を選択する。
ステップS501において出力形式がジェスチャの場合(ジェスチャ)、ステップS502で、ジェスチャ実行部23は、記憶部30に記憶された出力変換情報に基いて作業者に対する出力内容を出力ジェスチャに変換する。
次いで、ステップS503で、ジェスチャ実行部23は、水平回転駆動部16および鉛直回転駆動部17を制御して、回転駆動することにより、指定した出力ジェスチャを実行し、処理を終了する。
一方、ステップS501において、出力形式が音声の場合(音声)、ステップS504で、音声変換部25は、出力内容から、出力内容に応じた音声メッセージに変換し、音声出力部48に出力する。
次いで、ステップS505で、音声出力部48は、音声変換部25から入力された音声メッセージを音声として出力し、処理を終了する。
このように、第1の実施の形態に係る、ジェスチャインタフェイスは、音声入出力を用いた場合にも測量装置TSaに適用することができる。
以上、本発明の好ましい実施の形態について述べたが、上記の実施の形態および実施例は本発明の一例であり、それぞれの構成を当業者の知識に基づいて組み合わせることが可能であり、そのような形態も本発明の範囲に含まれる。
TS 測量装置
TSa 測量装置
2c 望遠鏡
16 水平回転駆動部
17 鉛直回転駆動部
20 演算制御部
20a 演算制御部
21 画像認識部
22 画像識別部
23 ジェスチャ実行部
24 音声認識部
25 音声変換部
30 記憶部
43 第1の照明用発光部
44 第2の照明用発光部
45 第3の照明用発光部
46 撮像部

Claims (5)

  1. ターゲットを測量可能な測量部と
    画像を取得可能な撮像部と、
    前記測量部を備える望遠鏡と、
    前記望遠鏡を鉛直軸周りに水平回転する水平回転駆動部と、
    前記望遠鏡を水平軸周りに鉛直回転する鉛直回転駆動部と、
    測量装置照明用発光部と、
    前記測量部前記撮像部、前記水平回転駆動部、前記鉛直回転駆動部および前記測量装置照明用発光部を制御するように構成された演算制御部と、
    記憶部とを備える測量装置であって、
    前記記憶部は、入力ジェスチャである作業者の身体の動作である所定の動作と、測量装置へのオペレーションとを関連付けた入力識別情報を有し、
    前記画像は、前記作業者が前記動作を行っている状態を撮像した動画像、および前記作業者の前記動作が一定時間停止している状態を撮影した静止画像、を含み、
    前記演算制御部は、前記画像から入力ジェスチャを認識する画像認識部、および該画像認識部で認識された入力ジェスチャに対応する測量装置へのオペレーションを、入力ジェスチャの示す内容として識別する画像識別部を備え
    前記記憶部は、作業者に対する出力内容と、測量装置の動作としての出力ジェスチャとを関連付けた出力変換情報を有し、
    前記演算制御部は、前記出力変換情報に基いて作業者に対する出力内容を出力ジェスチャに変換し、前記水平回転駆動部および前記鉛直回転駆動部を回転駆動することにより出力ジェスチャを実行するジェスチャ実行部を備え、
    前記出力ジェスチャは前記望遠鏡の水平回転および鉛直回転の組み合わせにより構成され、
    前記測量装置照明用発光部は、前記測量装置自体を照明する、
    ことを特徴とする測量装置。
  2. ジェスチャ照明用発光部を備え、
    前記出力ジェスチャは、前記ジェスチャ照明用発光部の発光を含むことを特徴とする請求項に記載の測量装置。
  3. 作業者照明用発光部を備え、
    前記作業者照明用発光部は、前記入力ジェスチャを行う作業者を照明すること
    を特徴とする請求項1または2に記載の測量装置。
  4. 音声入力部と、
    音声出力部とを備え、
    前記演算制御部は、前記音声入力部から入力された音声を認識する音声認識部、および作業者に対する出力内容を音声メッセージに変換し、前記音声出力部に出力する音声変換部を備えることを特徴とする請求項1~3のいずれかに記載の測量装置。
  5. 前記出力ジェスチャは、前記演算制御部の判断の結果を示すことを特徴とする請求項1~4のいずれかに記載の測量装置。
JP2018104483A 2018-05-31 2018-05-31 測量装置 Active JP7226928B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018104483A JP7226928B2 (ja) 2018-05-31 2018-05-31 測量装置
US16/424,012 US20190369380A1 (en) 2018-05-31 2019-05-28 Surveying instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104483A JP7226928B2 (ja) 2018-05-31 2018-05-31 測量装置

Publications (3)

Publication Number Publication Date
JP2019211222A JP2019211222A (ja) 2019-12-12
JP2019211222A5 JP2019211222A5 (ja) 2021-07-26
JP7226928B2 true JP7226928B2 (ja) 2023-02-21

Family

ID=68694709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104483A Active JP7226928B2 (ja) 2018-05-31 2018-05-31 測量装置

Country Status (2)

Country Link
US (1) US20190369380A1 (ja)
JP (1) JP7226928B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP1691841S (ja) * 2020-01-17 2021-08-02

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3098781U (ja) 2003-06-24 2004-03-11 ユート工業株式会社 電子式平板測量装置
US20140327920A1 (en) 2013-05-01 2014-11-06 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
WO2017151196A1 (en) 2016-02-29 2017-09-08 Faro Technologies, Inc. Laser tracker system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000068932A1 (fr) * 1999-05-10 2000-11-16 Sony Corporation Procede et dispositif de commande, procede et dispositif de traitement d'informations et support
US9116619B2 (en) * 2013-05-10 2015-08-25 Seagate Technology Llc Displaying storage device status conditions using multi-color light emitting diode
JP6735013B2 (ja) * 2016-05-31 2020-08-05 パナソニック株式会社 ロボット
JP6354796B2 (ja) * 2016-06-23 2018-07-11 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN109421044A (zh) * 2017-08-28 2019-03-05 富泰华工业(深圳)有限公司 智能机器人

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3098781U (ja) 2003-06-24 2004-03-11 ユート工業株式会社 電子式平板測量装置
US20140327920A1 (en) 2013-05-01 2014-11-06 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
WO2017151196A1 (en) 2016-02-29 2017-09-08 Faro Technologies, Inc. Laser tracker system

Also Published As

Publication number Publication date
US20190369380A1 (en) 2019-12-05
JP2019211222A (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
US10940573B2 (en) Hand-held tool system
JP4354343B2 (ja) 位置測定システム
JP6333075B2 (ja) 測量装置
EP2068116B1 (en) Surveying system
EP3211369B1 (en) Surveying instrument and program
US9581442B2 (en) Surveying instrument
US7564538B2 (en) Measuring system
JP5124321B2 (ja) 測定システム
US20170061605A1 (en) Position guiding device, position guiding method, and position guiding program
KR20160100149A (ko) 청소 로봇 및 그 제어방법
EP3771886A1 (en) Surveying apparatus, surveying method, and surveying program
JP7226928B2 (ja) 測量装置
JP5549631B2 (ja) 携帯型設定端末、及び監視システム
JP6394135B2 (ja) 画像表示装置
JP2006078416A (ja) トータルステーション
JP2013156124A (ja) 角度測定装置
JP2004037140A (ja) 推進工法における測量方法
JP3854168B2 (ja) トータルステーションの制御装置
JP2021063760A (ja) 測量システム
JP4933077B2 (ja) 測量機及びこの測量機を用いた測設方法
JP2006078415A (ja) トータルステーション
JP6112927B2 (ja) 測量用ターゲット、測量システム、及び測量装置
JP2020159823A (ja) 測定装置
JP2023042128A (ja) 画像編集支援方法、及び画像編集支援装置
JP2003240551A (ja) 測量機

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230209

R150 Certificate of patent or registration of utility model

Ref document number: 7226928

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150