JP5469899B2 - 自動追尾方法及び測量装置 - Google Patents

自動追尾方法及び測量装置 Download PDF

Info

Publication number
JP5469899B2
JP5469899B2 JP2009087934A JP2009087934A JP5469899B2 JP 5469899 B2 JP5469899 B2 JP 5469899B2 JP 2009087934 A JP2009087934 A JP 2009087934A JP 2009087934 A JP2009087934 A JP 2009087934A JP 5469899 B2 JP5469899 B2 JP 5469899B2
Authority
JP
Japan
Prior art keywords
image
tracking
target
unit
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009087934A
Other languages
English (en)
Other versions
JP2010237169A (ja
Inventor
仁志 大谷
隆浩 古明地
哲一 生駒
一彦 川本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2009087934A priority Critical patent/JP5469899B2/ja
Priority to EP10156948.1A priority patent/EP2237071B1/en
Priority to US12/661,573 priority patent/US8395665B2/en
Priority to CN2010101592323A priority patent/CN101900528B/zh
Publication of JP2010237169A publication Critical patent/JP2010237169A/ja
Application granted granted Critical
Publication of JP5469899B2 publication Critical patent/JP5469899B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Description

本発明は自動追尾方法及び追尾機能を有する測量装置に関するものである。
従来より距離測定、水平角、鉛直角の測定を行う測量装置として、追尾機能を有する測量装置があり、斯かる測量装置では、該測量装置が具備する視準望遠鏡によりコーナキューブ等の対象反射体(ターゲット)を視準し、視準望遠鏡から追尾光を射出し、前記ターゲットからの反射光を受光検出する様になっており、ターゲットが移動した場合には、ターゲットからの反射光の受光位置と視準中心とのずれを検出し、ずれに基づき、視準方向を修正し、ターゲットを自動的に追尾する様になっている。
通常、追尾機能を有する測量装置では測量装置側は無人で、ターゲットは測量作業者によって支持され、或はターゲットがブルドーザ等の建設機械に取付けられ、作業の進行に対応してターゲットが移動し、移動するターゲットを測量装置が追尾している。
ところが、ターゲットの移動速度が測量装置の追従速度を超え、視準望遠鏡の視野からターゲットが外れてしまった場合、窓ガラス等の反射物体からの反射光が測量装置に入射した場合、ターゲットがすれ違い、2以上のターゲットからの反射光が前記測量装置に入射した場合、或は自動車等がターゲットの前を通過し、反射光を遮った場合等では、測量装置がターゲットを見失い、或は誤認識し、追尾を行うことができず、自動追尾が中断することがある。
これは、一般的な視準望遠鏡では、画角(視野角)が約1°と小さい為であり、自動追尾の為の反射光の検出範囲が小さいことに起因している。
追尾が中断すると、測量装置はターゲットを探索(サーチ)する動作を開始するが、探索動作は追尾光を射出した状態で視準望遠鏡を上下方向、左右方向に所定範囲回転させることで走査し、ターゲットを検出する。
ところが上記した様に、前記視準望遠鏡の画角(視野角)は約1°と小さく、ターゲットを再検出するには、走査ピッチを細かくし、走査回数を多くする必要がある。この為、追尾が中断した場合には、再度ターゲットを検出し、追尾が開始できる様になるには多大な時間を要していた。更に、障害物による光路の遮断が頻繁に生じる作業環境では、測定の作業効率が著しく低下するという問題があった。
又、ターゲットが視準望遠鏡の視野から大きく外れた場合等では、ターゲットを再検出できず、測量作動自体が停止することもある。
尚、追尾機能を有する測量装置としては、特許文献1、特許文献2、特許文献3に示されるものがある。
特開平7−198383号公報 特開2000−346645号公報 特開2004−170354号公報
本発明は斯かる実情に鑑み、追尾機能を有する測量装置に於いて、複数の反射光が入射した場合、或は対象反射体以外の物体からの反射光を検出した場合に、対象反射体の誤認識による誤測定を防止し、又対象反射体を見失った場合、対象反射体の再検出が迅速に行え、自動追尾に復帰する時間を短縮して測定作業の効率を向上させるものである。
本発明は、移動体に支持されたターゲットからの光点を検出する光点検出工程と、前記ターゲット及び前記移動体の動画像を撮像する工程と、前記光点検出に基づきトラッキングする工程と、該トラッキングと並行して前記動画像に基づき画像トラッキングする工程と、前記トラッキングにより得られるターゲット位置と前記画像トラッキングにより得られる画像位置とを比較する工程と、前記ターゲット位置と前記画像位置が所定範囲内にある場合に前記トラッキングの結果に基づき追尾を行う工程を含む自動追尾方法に係るものである。
又本発明は、前記トラッキングする工程が、レーザ光線を照射し、前記移動体に支持された前記ターゲットからの前記光点を検出するレーザトラッキング工程である自動追尾方法に係るものである。
又本発明は、前記トラッキングする工程が、前記移動体に支持された前記ターゲットが発光することによる前記光点を検出する発光ターゲットトラッキング工程である自動追尾方法に係るものである。
又本発明は、前記ターゲット位置と前記画像位置とが所定範囲内にない場合、又は前記光点が検出されず前記ターゲット位置が得られない場合は、前記画像トラッキングを続行し、前記画像位置に基づき所定範囲を前記レーザ光線によりターゲットサーチを行う工程を有する自動追尾方法に係るものである。
又本発明は、前記動画像中の前記移動体の画像からテンプレート画像を抽出し、該テンプレート画像からヒストグラムを作成し、該ヒストグラムに基づき前記画像トラッキングが実行される自動追尾方法に係るものである。
又本発明は、前記ヒストグラムは、色彩、又は明度のヒストグラムである自動追尾方法に係り、又前記ヒストグラムは、エッジ処理して得られるエッジの勾配のヒストグラムである自動追尾方法に係るものである。
又本発明は、前記画像トラッキングには、パーティクルフィルタが用いられる自動追尾方法に係り、又前記パーティクルフィルタは、前記テンプレート画像の周辺に多くのパーティクルを生成し、そのパーティクルの重み付き平均値で前記テンプレート画像の位置を求める自動追尾方法に係り、前記ターゲットの測距データ、測角データに基づき前記移動体の速度、移動方向を判定し、前記移動体の動きに応じたパーティクルの発生位置を制御する自動追尾方法に係り、更に又、一時刻前の位置と現在位置の差、又は尤度の値に基づきパーティクルの発生を制御する自動追尾方法に係るものである。
又本発明は、移動体に支持されたターゲット及び前記移動体の動画像を撮像する工程と、前記動画像に基づき前記ターゲットのトラッキングを行うターゲットトラッキング工程と、前記動画像に基づき前記移動体のトラッキングを行う移動体トラッキング工程と、前記ターゲットトラッキング工程により得られたターゲット位置と前記移動体トラッキング工程により得られた移動体位置とを比較するトラッキング比較工程と、前記ターゲット位置と前記移動体位置が所定範囲内にある場合に前記トラッキング工程の結果に基づき追尾を行う工程を含む自動追尾方法に係るものである。
又本発明は、移動体により支持されたターゲットからの反射光を受光する第1撮像部と、前記ターゲット及び前記移動体の動画像を撮像する動画像撮像部と、前記第1撮像部及び前記動画像撮像部の視準方向を水平方向、鉛直方向に移動させる駆動部と、前記第1撮像部からの画像に基づき光点を検出する光点検出処理部と、前記動画像撮像部の撮像画像に基づき画像トラッキングの為の画像処理を行う画像追尾処理部と、前記光点検出処理部及び前記画像追尾処理部の処理結果に基づき前記第1撮像部、前記動画像撮像部をターゲットに向ける様前記駆動部を制御する制御演算部とを具備し、該制御演算部は前記光点検出処理部から検出結果を基にトラッキングを行い、前記画像追尾処理部からの処理結果を基に前記トラッキングと並行して前記画像トラッキングを行う様、前記駆動部を制御する測量装置に係るものである。
前記トラッキングが、レーザ光線を照射し、前記移動体に支持された前記ターゲットからの反射光を検出するレーザトラッキングである測量装置に係るものである。
前記トラッキングが、前記移動体に支持された前記ターゲットが発光することによる前記光点を検出する発光ターゲットトラッキングである測量装置に係るものである。
又本発明は、前記制御演算部は、レーザトラッキングで得られる前記光点位置と前記画像トラッキングで得られる前記画像位置とが所定範囲内にある場合は、前記レーザトラッキングで得られる結果で前記ターゲットを認識する測量装置に係り、又前記制御演算部は、前記レーザトラッキングで得られる前記光点位置と前記画像トラッキングで得られる前記画像位置とが所定範囲内にない場合、或は前記光点位置が得られない場合は、前記画像トラッキングで得られた画像位置に基づき所定範囲内をレーザ光線によりサーチし、前記ターゲットを検出する様、前記駆動部を制御する測量装置に係り、又前記制御演算部はパーティクルフィルタ処理プログラムを有し、前記画像追尾処理部はパーティクルフィルタによって画像追尾処理を行う測量装置に係り、又前記制御演算部は、前記動画像撮像部の画像から移動体画像を抽出し、該移動体画像からヒストグラムを作成し、該ヒストグラムによって移動体の判別を行う測量装置に係り、又前記制御演算部は、前記パーティクルフィルタにより、移動体画像の周辺に多くのパーティクルを生成し、該パーティクルの尤度の重み付き平均値により画像位置を求める測量装置に係り、又前記制御演算部は、測距データ、測角データに基づき前記移動体の速度、移動方向を判定し、前記移動体の動きに応じてパーティクルの発生を制御する測量装置に係り、又前記制御演算部は、一時刻前の位置と現在位置の差又は尤度の値に基づいてパーティクルの発生を制御する測量装置に係り、又前記ヒストグラムは、色彩のヒストグラム、明度のヒストグラム、エッジ勾配のヒストグラムの少なくとも1つである測量装置に係るものである。
更に又本発明は、移動体に支持されたターゲットの動画像を撮像する第1撮像部と、前記ターゲット及び前記移動体の動画像を撮像する動画像撮像部と、前記第1撮像部及び前記動画像撮像部の視準方向を水平方向、垂直方向に移動させる駆動部と、前記第1撮像部からの画像に基づき前記ターゲットのトラッキングを行うターゲットトラッキング画像処理部と、前記動画像に基づき前記移動体のトラッキングを行う移動体画像追尾処理部と、前記ターゲットトラッキング画像処理部及び前記移動体画像処理部の処理結果に基づき前記第1撮像部、前記動画像撮像部をターゲットに向ける様、前記駆動部を制御する制御演算部とを具備し、前記制御演算部は前記ターゲットトラッキング画像処理部からの検出結果を基にターゲットのトラッキングを行い、前記移動体画像追尾処理部からの処理結果を基に前記ターゲットトラッキングと平行して前記移動体のトラッキングを行う様、前記駆動部を制御する測量装置に係るものである。
本発明によれば、移動体に支持されたターゲットからの光点を検出する光点検出工程と、前記ターゲット及び前記移動体の動画像を撮像する工程と、前記光点検出に基づきトラッキングする工程と、該トラッキングと並行して前記動画像に基づき画像トラッキングする工程と、前記トラッキングにより得られるターゲット位置と前記画像トラッキングにより得られる画像位置とを比較する工程と、前記ターゲット位置と前記画像位置が所定範囲内にある場合に前記トラッキングの結果に基づき追尾を行う工程を含むので、ターゲットの追尾精度が向上し、ターゲットの誤認識に基づく誤測定が防止できる。
又本発明によれば、前記ターゲット位置と前記画像位置とが所定範囲内にない場合、又は前記光点が検出されず前記ターゲット位置が得られない場合は、前記画像トラッキングを続行し、前記画像位置に基づき所定範囲を前記レーザ光線によりターゲットサーチを行う工程を有するので、複数の光点が検出された場合、或はレーザ光線の光路が遮断され光点が検出できなかった場合でも、画像トラッキングで得られた前記画像位置の近傍をサーチすればよいので直ちにターゲットが検出でき、迅速に追尾に復帰できる。
又本発明によれば、前記動画像中の前記移動体の画像からテンプレート画像を抽出し、該テンプレート画像からヒストグラムを作成し、該ヒストグラムに基づき前記画像トラッキングが実行されるので、移動体の姿勢が変った場合、一部が遮断された場合でも、画像トラッキングが可能である。
又本発明によれば、前記ターゲットの測距データ、測角データに基づき前記移動体の速度、移動方向を判定し、前記移動体の動きに応じたパーティクルの発生位置を制御するので、前記移動体が障害物に一時的に隠れた場合でも、画像トラッキングを継続できるという優れた効果を発揮する。
又本発明によれば、移動体に支持されたターゲット及び前記移動体の動画像を撮像する工程と、前記動画像に基づき前記ターゲットのトラッキングを行うターゲットトラッキング工程と、前記動画像に基づき前記移動体のトラッキングを行う移動体トラッキング工程と、前記ターゲットトラッキング工程により得られたターゲット位置と前記移動体トラッキング工程により得られた移動体位置とを比較するトラッキング比較工程と、前記ターゲット位置と前記移動体位置が所定範囲内にある場合に前記トラッキング工程の結果に基づき追尾を行う工程を含むので、ターゲットの追尾精度が向上し、ターゲットの誤認識に基づく誤測定が防止できるという優れた効果を発揮する。
又本発明によれば、移動体により支持されたターゲットからの反射光を受光する第1撮像部と、前記ターゲット及び前記移動体の動画像を撮像する動画像撮像部と、前記第1撮像部及び前記動画像撮像部の視準方向を水平方向、鉛直方向に移動させる駆動部と、前記第1撮像部からの画像に基づき光点を検出する光点検出処理部と、前記動画像撮像部の撮像画像に基づき画像トラッキングの為の画像処理を行う画像追尾処理部と、前記光点検出処理部及び前記画像追尾処理部の処理結果に基づき前記第1撮像部、前記動画像撮像部をターゲットに向ける様前記駆動部を制御する制御演算部とを具備し、該制御演算部は前記光点検出処理部から検出結果を基にトラッキングを行い、前記画像追尾処理部からの処理結果を基に前記トラッキングと並行して前記画像トラッキングを行う様、前記駆動部を制御するので、ターゲットの追尾精度が向上し、ターゲットの誤認識に基づく誤測定が防止できる。
又本発明によれば、前記制御演算部は、前記レーザトラッキングで得られる前記光点位置と前記画像トラッキングで得られる前記画像位置とが所定範囲内にない場合、或は前記光点位置が得られない場合は、前記画像トラッキングで得られた画像位置に基づき所定範囲内をレーザ光線によりサーチし、前記ターゲットを検出する様、前記駆動部を制御するので、複数の光点が検出された場合、或はレーザ光線の光路が遮断され光点が検出できなかった場合でも、前記画像トラッキングで得られた前記画像位置の近傍をサーチすればよいので直ちにターゲットが検出でき、迅速に追尾に復帰できる。
又本発明によれば、前記制御演算部は、前記動画像撮像部の画像から移動体画像を抽出し、該移動体画像からヒストグラムを作成し、該ヒストグラムによって移動体の判別を行うので、移動体の姿勢が変った場合、一部が遮断された場合でも、画像トラッキングが可能である。
又本発明によれば、前記制御演算部は、測距データ、測角データに基づき前記移動体の速度、移動方向を判定し、前記移動体の動きに応じてパーティクルの発生を制御するので、移動体の姿勢が変った場合、一部が遮断された場合でも、画像トラッキングが可能である。
又本発明によれば、移動体に支持されたターゲットの動画像を撮像する第1撮像部と、前記ターゲット及び前記移動体の動画像を撮像する動画像撮像部と、前記第1撮像部及び前記動画像撮像部の視準方向を水平方向、垂直方向に移動させる駆動部と、前記第1撮像部からの画像に基づき前記ターゲットのトラッキングを行うターゲットトラッキング画像処理部と、前記動画像に基づき前記移動体のトラッキングを行う移動体画像追尾処理部と、前記ターゲットトラッキング画像処理部及び前記移動体画像処理部の処理結果に基づき前記第1撮像部、前記動画像撮像部をターゲットに向ける様、前記駆動部を制御する制御演算部とを具備し、前記制御演算部は前記ターゲットトラッキング画像処理部からの検出結果を基にターゲットのトラッキングを行い、前記移動体画像追尾処理部からの処理結果を基に前記ターゲットトラッキングと平行して前記移動体のトラッキングを行う様、前記駆動部を制御するので、ターゲットの追尾精度が向上し、ターゲットの誤認識に基づく誤測定が防止でき、更にターゲットを見失った場合でも、トラッキングを継続して行え、ターゲットのサーチも迅速に行え、ターゲットトラッキングの復帰が容易であるという優れた効果を発揮する。
本発明が実施される測量装置の一例を示す斜視図である。 本発明の実施例に係る測量装置の概略構成図である。 本発明の実施例に於けるトラッキングについての説明図である。 本発明の実施例に於ける作動を示すフローチャートである。 本発明の実施例に於けるレーザトラッキングのフローチャートである。 本発明の実施例に於ける画像トラッキングのフローチャートである。 本発明の実施例に於ける画像トラッキングのフローチャートである。 パーティクルフィルタに於ける尤度の状態を示すグラフである。 本発明の実施例で使用されるターゲットの一例を示す図である。
以下、図面を参照しつつ本発明の実施例を説明する。
図1、図2は本発明が実施される測量装置1を示している。尚、用いられる測量装置1は、例えばトータルステーションであり、測定点についてパルスレーザ光線を照射し、測定点からのパルス反射光を受光して、各パルス毎に測距を行い、測距結果を平均化して高精度の距離測定を行うものである。
図1に示される様に、前記測量装置1は主に、図示しない三脚に取付けられる整準部2、該整準部2に設けられた基盤部3、該基盤部3に鉛直軸心を中心に回転可能に設けられた托架部4、該托架部4に水平軸心を中心に回転可能に設けられた光学部5から構成されている。
前記托架部4は表示部6、操作入力部7を具備し、前記光学部5は、測定対象物を視準する望遠鏡部8と該望遠鏡部8の光学系を通して追尾用の画像を取得する第1撮像部(追尾撮像部)11と前記望遠鏡部8の光学系を通して視準方向の画像を取得する第3撮像部13(望遠撮像部)を有している。前記望遠鏡部8は高倍率を有し、該望遠鏡部8の画角は、例えば1゜である。
又前記光学部5は、前記望遠鏡部8より低倍率で広範囲な視野を有する広角カメラ部9を具備している。前記広角カメラ部9は前記望遠鏡部8の視準方向、或は略視準方向の広角画像を取得可能であり、広角画像を取得する第2撮像部(広角撮像部)12を具備している。前記広角カメラ部9の画角は、例えば15°〜30゜である。又、前記望遠鏡部8と前記広角カメラ部9とは光軸が異なっているが、両光軸は平行であり、両光軸間の距離が既知であり、前記広角カメラ部9と前記望遠鏡部8間の視準方向のずれは演算により修正が可能である。
前記第3撮像部13は、前記望遠鏡部8を透して測定対象物(ターゲット)像を取得するものであり、前記望遠鏡部8の光軸(視準光軸)を中心とした所要範囲(画角1゜)を撮像可能となっている。前記第1撮像部11は前記望遠鏡部8の光軸を分割した光路上に設けられ、該望遠鏡部8の画角と同等の範囲、例えば画角1゜の範囲を撮像可能となっている。
又、前記第2撮像部12は、前記広角カメラ部9に組込まれており、前記第3撮像部13より広い範囲、例えば画角30°の範囲を撮像可能となっている。前記第2撮像部12、前記第3撮像部13はターゲット及びターゲットを支持する物体、或は人を含む範囲についての動画像を撮像する。
前記第1撮像部11、前記第2撮像部12、前記第3撮像部13には撮像画像をデジタル画像信号として出力する。例えばデジタルカメラが用いられ、前記第1撮像部11、前記第2撮像部12、前記第3撮像部13が有する受光素子は、例えば画素の集合体であるCCD、CMOS等であり、受光する画素の位置が特定でき、又受光する画素の位置から画角が求められる様になっている。尚、前記第2撮像部12、前記第3撮像部13で撮像する画像は、カラー画像であることが好ましい。
図2により、前記測量装置1の基本構成について説明する。
前記光学部5は、前記望遠鏡部8の光学系を共有する測距部14を内蔵し、該測距部14は測距光を射出すると共に測定対象物からの反射光を受光して測定対象物迄の光波距離測定を行う。
尚、前記測距部14は、測定対象物がプリズムであった場合はプリズム測定方式、プリズムでない場合はノンプリズム測定方式の切替えが可能となっている。
前記托架部4には、該托架部4を水平方向に回転させる為の水平駆動部15が設けられると共に前記托架部4の前記基盤部3に対する水平回転角を検出し、視準方向の水平角を検出する水平測角部16が設けられる。又前記托架部4には、水平軸心を中心に前記光学部5を回転する鉛直駆動部17が設けられると共に、前記光学部5の鉛直角を検出し、視準方向の鉛直角を測角する鉛直測角部18が設けられる。
前記托架部4には制御装置21が内蔵され、該制御装置21は、前記水平駆動部15、前記鉛直駆動部17の駆動を制御して前記托架部4、前記光学部5を水平方向、鉛直方向に回転して該光学部5を所定の方向に向け、又所定の範囲を走査し、前記望遠鏡部8、前記広角カメラ部9の切替え及び前記第1撮像部11、前記第2撮像部12、前記第3撮像部13の切替えを制御して、所要の倍率の画像を取得し、更に前記測距部14を制御して所定の測定点の測距を行う。
前記制御装置21は、制御演算部22、記憶部23、光点検出処理部24、第1画像記録部25、撮像選択部26、第2画像記録部27、初期値設定部28、画像追尾処理部29、前記表示部6、前記操作入力部7等から構成されている。
前記記憶部23には測定に必要な計算プログラム、或は後述する第1の画像処理を行う為の画像処理プログラム、処理された画像から測定点(ミラーからの反射光を受光した光点)を選択し、選択された測定点(ターゲット)について測距を実行するプリズム測距プログラム、或はプリズムを用いないで測距する場合のノンプリズム測距プログラム、ノンプリズム測定方式による測距を実行するプログラム等のプログラム、又測定点を追尾するシーケンスプログラム、ターゲットを見失った場合にターゲットを探索する為のサーチプログラム、光点を含むオブジェクトを画像として認識し、オブジェクト画像について追尾する画像追尾プログラム、パーティクルフィルタ処理プログラム等のプログラムが格納されている。
又、前記制御演算部22には前記測距部14、前記水平測角部16、前記鉛直測角部18からの測定結果が入力され、距離測定、水平角、鉛直角の測定が行われ、測定結果は前記制御演算部22を介して前記記憶部23に格納されると共に前記表示部6に表示される様になっている。
又、前記制御演算部22は、後述する様に動画像に基づく移動体の画像トラッキング(移動体トラッキング)を制御する為、測距データと測角データ(H,V)から移動体の速度と方向を判定する。
測定作業者は、測定対象物(プリズム)を視準し、前記第2撮像部12或は前記第3撮像部13から得られた画像から測定対象物(プリズム)を含むオブジェクトの選択、設定を行う。選択、設定されたオブジェクトは、画像追尾の対象となる。更に、選択したオブジェクトの特徴部分を選択してテンプレートとして設定する。
前記撮像選択部26は、測定対象物迄の距離に応じて取得する前記第2撮像部12と前記第3撮像部13との切替えを行い、測距距離に対応した適切な倍率の画像が取得できる様にする。
前記撮像選択部26により前記第2撮像部12、前記第3撮像部13が選択され、選択された撮像部が撮像した画像は、前記第2画像記録部27に格納され、又適宜前記表示部6に表示される。
前記第2画像記録部27に格納された画像に基づき前記画像追尾処理部29によって画像データによるオブジェクトの判別が行われ、又画像データに基づきオブジェクトの位置が求められる。
前記第1撮像部11は測定している間中、視準方向の画像を取得しており、画像は前記第1画像記録部25に格納される。又、該第1画像記録部25に格納された画像から、前記光点検出処理部24に於いて画像処理により測定対象物からの光点が検出され、該光点の重心位置(受光素子上の画素の位置)からターゲットの位置、即ち前記望遠鏡部8の視準方向の水平角、鉛直角を求める。求められた光点に基づき追尾、即ち、ターゲットトラッキングが実行される。
又、前記画像追尾処理部29は設定されたオブジェクトについて、動画像による状態推定手法(パーティクルフィルタ)を用いて自動追尾処理を実行し、前記テンプレートについて、オブジェクトの特徴を示すヒストグラム34を求める。該ヒストグラム34としては、色のヒストグラム、明度のヒストグラム、画像をエッジ処理して得られるエッジ各部位が持つ勾配のヒストグラム等が挙げられる(図示では色のヒストグラムを示している)。
又、前記画像追尾処理部29は、前記パーティクルフィルタに、前記テンプレート画像の周辺に多くのパーティクルを生成させ、前記画像追尾処理部29は、画像データ中から前記ヒストグラム34に基づきオブジェクトの抽出、又オブジェクトであるかどうかを判断する。又、オブジェクトであると判断した場合のオブジェクトの位置を前記パーティクルの重み付き平均値で求める。更に、演算により予測された移動体の速度と方向に基づき、該移動体の動きに応じたパーティクルフィルタの粒子の発生位置を制御する等の処理を行う。
先ず、図3に於いて、本実施例に係るトラッキングの概念について説明する。
本実施例では、前記測量装置1から追尾光を照射し、該追尾光が対象反射体(プリズム)で反射された反射光を受光して追尾を行うレーザトラッキングと、測定対象物、測定対象を支持するオブジェクトに関してテンプレート画像を設定し、該テンプレート画像に基づき追尾を行う画像トラッキングとを併用して測定対象物の追尾を行う。
図3に於いて例示する追尾の対象は、移動体であるブルドーザ30であり、測定対象物(ターゲット)31はコーナキューブ等のプリズムである。該ターゲット31は前記ブルドーザ30にポール等の支持体を介して支持されている。
又本実施例では、前記望遠鏡部8より追尾光(レーザ光線)を測距光と同じ光軸上に射出し、前記ターゲット31で反射されたレーザ光線を受光してトラッキングを行うレーザトラッキングと前記第2撮像部12、前記第3撮像部13で撮像した動画像を基にトラッキングを行う画像トラッキングとを並行して行う。
ここで、レーザトラッキングに使用される前記望遠鏡部8の画角は1°と小さく、前記第1撮像部11が撮像する範囲は前記望遠鏡部8の光軸を中心とした所定範囲に限られている。又前記望遠鏡部8を通して撮像する第3撮像部13の画角は1゜となっている。前記広角カメラ部9の視野角は、前記望遠鏡部8より大きく、前記第2撮像部12の画角は、例えば、30゜である。
図3中、32はレーザトラッキング用の第1撮像部画像、33は画像トラッキング用の第2撮像部、第3撮像部の画像、即ち画像トラッキング用画像33を示している。又、36はオブジェクトをブルドーザ30とし、該ブルドーザ30の画像、即ちオブジェクト画像の一部を抽出したテンプレート画像であり、該テンプレート画像36の大きさは、例えば最小で20×20画素の大きさに設定される。前記テンプレート画像36と前記ターゲット31とは画像上での位置は既知であり、前記テンプレート画像36の中心位置から前記ターゲット31、前記オブジェクト画像の中心が演算できる。
レーザトラッキングと画像トラッキングとはリアルタイムに並行して行われるが、最終的なトラッキングはレーザトラッキングによって得られた結果に基づき行われる。又、レーザトラッキングと画像トラッキングとのトラッキング結果がリアルタイムで比較され、レーザトラッキングの結果が正しいかどうかがチェックされる。
レーザトラッキング中にレーザトラッキングの探索範囲、例えば光点37が前記第1撮像部11で撮像し得る範囲、即ち前記第1撮像部画像32から外れ、ターゲットを見失った場合、前記ターゲット31からの反射光が障害物によって遮断された場合、或は複数の光点を受光し、レーザトラッキング不能となった場合、前記第2撮像部12又は前記第3撮像部13により取得した動画像に基づく画像トラッキングに移行する。尚、前記第2撮像部12又は前記第3撮像部13の何れの画像が選択されるかは、測距距離に応じて決定される。
画像トラッキングが実行され、画像中に前記テンプレート画像36に対応する部位が検出され、対応部位の中心位置が求められる。対応部位の中心位置から前記ターゲット31の画像上での位置が演算され、演算されたターゲット31の位置を中心として所定範囲で追尾光による走査が行われ、光点37が検出される。該光点37が検出される迄、画像トラッキングによる追尾が行われ、該光点37が検出されることで、レーザトラッキングが再開される。
次に、本実施例に於ける画像トラッキングの特徴を説明する。
本実施例の画像トラッキングでは、動画像(ビデオ)による状態推定手法(パーティクルフィルタ)を用いており、対象反射体(ターゲット31)或はそれを含む移動体(重機、人等のオブジェクト)の追尾を行い、ターゲット31の隠蔽、交差、振動等の状況で、ターゲット31を見失ってもそれと一体となった移動体を画像トラッキングにより検出する。
上記した状態推定手法は、動画像等の時系列データを用いて追尾処理を行うものであり、状態の時間変化を記述したシステム(運動)モデルと粒子(パーティクル)の観測過程を記述した観測モデルとにより構成され、フィードバック制御しながら移動体を追尾する。又、追尾したいオブジェクト周辺に多くのパーティクルを生成し、そのパーティクルの尤度(特徴量)の重み付き平均値でオブジェクトの画像位置が求められる。その画像位置に基づきプリズムサーチを行って最終的に移動体を認識する。
この為、ターゲット31をサーチする範囲が狭い範囲に限定され、前記ターゲット31を素早く検出でき、測量作業の自動追尾に復帰する時間を短縮して作業の効率化を向上させる。
又、移動対象物の色や画像の濃度勾配(エッジ)等に基づく「ヒストグラム」によりオブジェクトの検出、判定を行っているので、移動体のスケール変化、一部隠蔽、向き変化等の状況でも、移動体を安定的に特定できる。尚、オブジェクトの検出、判定に用いられるヒストグラムは、色彩のヒストグラム、明度のヒストグラム、エッジ勾配のヒストグラムの内、1つ又は2つ以上が用いられる。ヒストグラムを複数用いることで、検出、判定の精度が向上する。
図4は本実施例に於けるトラッキングの流れを示すものであり、レーザトラッキングと画像トラッキングとを並行して実施している。
STEP:0,STEP:01,STEP:02 トラッキングを開始する為、測定作業者は前記望遠鏡部8により前記ターゲット31を視準し、初期値としての水平角(H)、高低角(V)を設定する。又、前記ターゲット31を支持するブルドーザ30(オブジェクト)を確認すると共に前記テンプレート画像36を設定する。
STEP:03,STEP:04 レーザトラッキング及び画像トラッキングを並行して実行する。尚、画像トラッキングはパーティクルフィルタ(以下、PFと称す)を用いた動画像トラッキングの方法が用いられる。
STEP:05 レーザトラッキング及び画像トラッキングの少なくとも一方が成功するとトラッキングが続行され、両方が不成功の場合は、再度マニュアルによる初期設定をやり直す。
STEP:06,STEP:07 レーザトラッキングが成功したかどうかが判定され、成功した場合は、前記ターゲット31の位置(水平角H0,高低角V0)と画像中心の位置(水平角H1,高低角V1)とが比較され、両位置が所定の画角内、例えば1.5゜に納っているかがチェックされる。
STEP:09,STEP:10 レーザトラッキングが成功しない場合は、例えば、追尾反射光が障害物によって遮断された様な場合であり、この場合は、画像トラッキングの結果が採用される(後述)。
レーザトラッキングが成功し、前記ターゲット31の位置(水平角H0,高低角V0)と画像中心の位置(水平角H1,高低角V1)が所定の画角内に納っている場合は、レーザトラッキングと画像トラッキングとの整合がとれている場合であり、トラッキングに成功した対象物が前記ターゲット31であることが確定される。
STEP:08,STEP:11 前記ターゲット31の位置が(H0,V0)に確定され、前記水平駆動部15、前記鉛直駆動部17が駆動され、前記望遠鏡部8が前記ターゲット31に視準される。
STEP:09 前記ターゲット31の位置と画像中心の位置が所定の画角内に納っていない場合は、他のプリズム或は反射体を検出した可能性があり、画像トラッキングでのPFの尤度がチェックされる。尤度が所定値より大きい場合は、パーティクルが前記テンプレート画像36部分に集中している状態であり、画像トラッキングが成功した対象物がオブジェクトであると判断できる。この時の画像中心の位置(水平角H1,高低角V1)が前記ターゲット31の位置として確定される(STEP:10)。
STEP:11 前記水平駆動部15、前記鉛直駆動部17が駆動され、前記望遠鏡部8の水平角、高低角がH1,V1となる様、前記ターゲット31に視準される。
尚、前記テンプレート画像36の中心位置と前記ターゲット31の位置とは異なるが、両者の関係は既知であるので、前記テンプレート画像36の中心位置が求まると前記ターゲット31の位置も直ちに求められる。得られた位置を中心にレーザ光線により前記ターゲット31をサーチすることで、容易に該ターゲット31を検出でき、レーザトラッキングを再開、継続できる。
STEP:09 又、尤度が所定値より小さい場合は、前記画像トラッキング用画像33にパーティクルが分散している状態であり、画像トラッキングでの対象物がオブジェクト(ブルドーザ30)であると判定するのは不充分であり、サーチ動作は停止され、尤度が所定値より大きくなる迄待つ。尤度が所定値に達すると、STEP:10、STEP:11に進む。
而して、ターゲット31が複数存在した場合も、対象となるターゲット31を判定でき、又追尾反射光が遮断された場合でも、追尾動作を継続できる。
次に、STEP:03に於けるレーザトラッキングについて図5に於いて説明する。
STEP:30,STEP:31,STEP:32 レーザ光線(追尾光)を前記望遠鏡部8を通して照射し、ターゲットで反射された反射レーザ光線を前記望遠鏡部8を介して受光し、前記第1撮像部11で撮像して画像データを取得する。
STEP:33,STEP:34 取得した画像を設定した閾値により2値化処理し、レーザ光線の光点を検出し、前記第1撮像部11に於ける受光素子中の光点37の重心位置を検出する。
STEP:35,STEP:36 重心位置検出に成功すると、該光点37の重心位置に対応する受光素子の画素位置から前記第1撮像部11に於ける水平、鉛直の画角が求められ、水平角H、高低角Vが計算される。
図6は、図4に於けるオブジェクトトラッキングについての流れを抽出したものである。尚、図6中、図4中で示した工程(STEP)と対応するものについては、説明を省略する。
STEP:04で画像トラッキングが実行され、前記画像中心が求められると、PFの設定が適正かどうかがチェックされ、PFが適正でない場合は、PFの再設定が行われる(STEP:21)。画像トラッキングについては、後述する。
PFのチェックが完了すると、STEP:10〜STEP:12が実行され、画像トラッキングの結果に基づき追尾が行われる。
更に、図7に於いて、画像トラッキングについて説明する。
ここでは、状態推定手法(パーティクルフィルタ(PF))を用いた動画像追尾の流れについて説明する。
パーティクルフィルタとは、現在の時刻から次の時刻に起り得る状態を多数の粒子(パーティクル)に見立て、検出したいオブジェクトの部分画像をテンプレートとし、そのオブジェクト周辺に設定した全てのパーティクルとテンプレートとの特徴量(尤度)に基づいた位置を次の時刻での状態として予測しながら追跡を繰り返すアルゴリズムである。
STEP:40 パーティクルフィルタによる追尾プログラムをスタートさせる。
STEP:41 プリズムトラッキング(図4参照)或はオブジェクトトラッキング(図6)にて設定された初期化フラグをチェックし、フラグがTRUE(1)の時、パーティクルフィルタの初期化を行う(STEP:42)。FALSE(0)の時は初期化せず、画像データ取得へ進む(STEP:43)。
STEP:42 パーティクルフィルタ処理を用いて、画像トラッキングする為の初期値を設定する。パーティクルフィルタで用いるパラメータの殆どは、ガウス分布に従う乱数を用いて計算する。数値の範囲:−1.0〜1.0として、以降の説明ではこの乱数を「NN」で表す。
初期テンプレート位置:cx_init,cy_initは、最初のテンプレートの位置であり、測量装置1で視準するか、視準後、前記広角カメラ部9の前記第2撮像部12若しくは前記望遠鏡部8の前記第3撮像部13で撮影した画像上で指定する。
初期テンプレートサイズ:temple_width,temple_heightは、例えば最小で20×20画素程度とし、指定した画像位置を中心に、設定したサイズの画像データを取得する。更に、以降の観測過程でのテンプレートの色ヒストグラム及び画像濃度の勾配(エッジ)のヒストグラムを計算しておく。
次に、初期テンプレートの縦横比:temple_ratio=temple_height/temple_widthを計算する。縦横比は、テンプレートサイズ:temple_width,temple_heightが更新された時に計算する。
粒子(パーティクル)の数は、例えば2000個とする。各粒子には通し番号(インデックス)を持たせ、以降に説明する各粒子の尤度を更新・管理する。
初期化過程では、全て同じ状態にある初期粒子にそれぞれ違いを発生させる為、初めに設定した2,000個の粒子は全て同位置(cx_init,cy_init)とし、そこから各粒子を{(ガウス分布)×(探索領域)}だけ散らばらせる。
初期化過程では、初期状態で粒子がどの方向に進んでいくか不明である為正規分布に従う初期速度分布を与える。つまり、現時刻と1ステップ前の位置を算出し、その2つから速度ベクトルを生成させる。先ず、現時刻とみなす位置の算出は数1で求められる。
ここで、cx_dev,cy_devとは粒子の位置(広がり)を制御するパラメータであり、例えば、大きく動く対象物はcx_dev=cy_dev=10.0。小さく動く対象物はcx_dev=cy_dev=1.0として設定するが、初期化過程では、10.0に設定する。
又、1ステップ前とみなす位置:cx_prev,cy_prevの算出は以下の計算で求められる。
各粒子の参照する領域:w,retioのサイズにもばらつきを持たせる。
ここで、w_devは粒子の状態遷移の際に用い、粒子の持つ領域の横幅の可動具合を示す分散値で、例えばw_dev=0.5とする。又、r_devは、粒子の状態遷移の際に用い、粒子の持つ領域の縦幅の可動具合を示す分散値で、例えばr_dev=0.02とする。
STEP:43,STEP:02(図4参照)に於けるマニュアル指定時に、オブジェクト迄の距離値から前記広角カメラ部9の前記第2撮像部12、前記望遠鏡部8の前記第3撮像部13を切替えて、距離値に応じてオブジェクトが適当な大きさになる様に画像を選定しておき、その動画像(ビデオ)データを取得する。
STEP:44 オブジェクト迄の距離値が例えば25〜30%程度、変化した場合や尤度(後で説明)の値がある閾値より低い場合(例えば50%以下)等では、テンプレートの更新が必要と判断して、STEP:45 テンプレート更新へ進む。
STEP:45 カメラの明るさを適正値に調整した後、カメラの静止画(あるフレーム)からオブジェクト画像からテンプレート画像データを取得する。テンプレート画像の大きさは、最小で20×20画素とする。指定したオブジェクトの色の境界及び輪郭を抽出して設定する。又、テンプレートは測定データに基づき随時、更新される。即ち、移動体迄の距離に応じてオブジェクト画像の大きさが変化するので、オブジェクト画像の大きさ変化に対応してテンプレートの大きさも変化させる。
STEP:46 初期化過程で散りばめられた粒子について、予測分布(システムモデル)に従って各粒子位置を移動させる。但し、初回の予測過程では、初期化で発生させたcx,cy,cx_prev,cy_prevを用いる。
システムモデルの例として、移動体の滑らかな動きの制御を実現する為「等速度モデル」を用いる。即ち、測距データと測角データ(H,V)の変化に基づき速度と移動方向を演算する。この時の速度が等速度と仮定する。前記「等速度モデル」を使った場合には、以下の様に定義できる。
等速度モデル:
N(σ)は、システム分散値で探索領域を表し、数4で与えられる。
ガウス分布を発生させる際に数5に示される乱数を利用している。
これによって、一時刻前の散りばめられていた粒子を各々、ガウス分布に従う等速度分布に従って状態遷移できる。
又、粒子の位置(広がり)を制御するパラメータ:cx_dev,cy_devは、通常のケースの場合、移動体迄の距離が近ければ移動距離は大きく、遠ければ移動距離は小さくなると考えられるので、前記測量装置1で測距した値に基づきcx_dev,cy_devを変えて制御する。即ち、対象物の速度に応じた制御として、一時刻前の位置と現在位置の差を求め、cx_dev,cy_devに代入する。更に、移動体が隠蔽で隠れた場合等では、尤度の値から前記測量装置1のカメラの制御を一時的にストップさせ、cx_dev,cy_devを変えて制御する。
現時刻の尤度の合計が、PFが良好な状態(PFフラグFALSE)の尤度の合計に比べて10%以上なら、上述の差を入力し、それ以下なら、0%〜3%:cx_dev=cy_dev=30.0,3%〜5%:cx_dev=cy_dev=20.0,5%〜10%:cx_dev=cy_dev=10.0とする。
各粒子の参照する領域:w,ratioについてもランダムに値を与える(数6)。
システムモデルとは、状態の時間変化を記述するものであり、ここで示した等速度モデル以外にも、移動体(オブジェクト)の動きが事前知識として得られている場合には、その動作を制御することもできる。例えば、右から左に動いている場合には、粒子の発生を右方向に予測して重点的に発生させる様に定義することもできる。
STEP:47 観測過程とは、粒子の尤度計算と尤度の正規化を行うステップであり、ここでは、テンプレートと各粒子との画像処理を行って、その特徴量(類似度)を評価し、その値を尤度とする。ここでは、色(RGB)ヒストグラムによる方法で類似度を評価している。特徴量としては、一般的なテンプレートマッチングの手法として、SSDA法(Sequential Similarity Detection Algorithm)、正規化相互相関法、最小2乗マッチング法、方向符合法等を用いても良い。但し、移動体を追尾する場合には、向き変化、大きさ変化、一部隠蔽等のロバスト性を確保する為、ヒストグラムを用いた特徴量計算が望ましい場合が多い。
1)粒子の尤度計算
各粒子についてオブジェクトとの尤度(類似度)を計算する。尤度計算は、RGBヒストグラムを用いて、全ての粒子1個ずつについて評価を行う。オブジェクトと各粒子の持つヒストグラムはそれぞれ正規化しておく。正規化ヒストグラムp,qに関して以下の様に定義する。
ρ[p,q]=Σ√(pq) (ρ:Bhattacharyya係数)
類似度:dif=√(1−ρ[p,q])
尤度=exp(−dif/obs_var) (obs_var:観測システム分散値)
又、色ヒストグラムだけでなく、テンプレート及び各粒子についてSobel演算子等を用いて画像の濃度勾配(エッジ)を抽出し、エッジの勾配(画像上でのエッジの傾き)を求め、離散化(例えば16分割)して、ヒストグラム化する。そのヒストグラムを色ヒストグラムと同様に計算することで、オブジェクトの色情報だけでなく、形状(エッジ)も特徴量と捉えることができ、色情報と形状の情報を併用する事で、更に尤度の性能を高めることができる。
2)尤度の正規化
尤度総和が1になる様に正規化する。又は、正規化するのではなく単純に全粒子の尤度の合計を算出しても良い。
STEP:48 粒子を確率(重み)に従って再サンプリングして、予測過程(システムモデル)に従う粒子を発生させる。即ち、それぞれの粒子が持つ尤度に比例した確率で、新たな粒子を復元抽出する。これにより、大きな尤度を持つ粒子の数を増やし、小さな尤度を持つ粒子は消滅させる。
一般的な再サンプリング法を以下に示す。
尤度の正規化
尤度の累積計算
逆関数を用いて復元抽出
尤度の累積計算を行うことで、図8の様な階段状のグラフができる。逆関数を用いて復元抽出とは、0〜1.0の乱数を発生させる。その値を縦軸の値と考えて、対応した横軸の値を導く。この得られた横軸の値を粒子番号とする粒子を次のステップで発生させる。この作業を2000回行う。尚、図8中、縦軸は尤度を示す。又、尤度を正規化しているので、最大値は1.0となる。
一般的なパーティクルフィルタ処理では、再サンプリング後の粒子座標をcx_prev,cy_prevとして、STEP:46 予測過程へ進み、処理を繰返す。
STEP:49 上記で求めた尤度の値と粒子数をチェックし、尤度及び粒子数がある閾値より小さい場合には、PFフラグをTRUE(1)にセットする。例えば、現在時刻の尤度の合計が、PFが良好な状態の時(PFフラグFALSE)の尤度合計と比較して1/10(10%)以下であれば、移動体が見失ったか確定できないと判断し、フラグをONとして測量装置1のカメラを旋回せずに停止状態とする。
粒子数は、その近傍(テンプレートサイズ×2)内に半数以上(2000/2=1000個)含まれるか判断し、半数以下であれば上記と同様にフラグをONとする。
尤度が極端に小さい場合は移動体が存在しない(発散)と仮定し、画像トラッキング処理を終了(STEP:51)し、ウェイト状態とする。又、粒子数が少ない場合は、複数の尤度に分裂していると仮定し、これもウェイト状態とする。
この場合、測量装置1の旋回動作(カメラを移動)をしないで、その位置でカメラを固定し、移動体が出現するか、或いは交差(複数存在)している場合には、どの対象物を選定するかを判定する迄待つ(処理を繰返す)動作を行う。
STEP:50 前述で得られた2000個の粒子集合から、パーティクルフィルタを用いて、移動体の最適な位置を計算する為に、重み付きの粒子平均値を算出して、その画像座標を出力する。即ち、重み付きの粒子平均値とは、単純な粒子の平均でなく、尤度の高い粒子を重視することで、各粒子について{座標×正規化した尤度}を行い、全粒子の平均値を計算することで求められる。
計算された画像座標から、測量装置1に搭載された前記第2撮像部12若しくは前記第3撮像部13のカメラを移動体に向ける為、水平角:Hと鉛直角:Vを計算し、終了へと進む(STEP:51)。
プリズムトラッキングであれば、その角度(H,V)に基づいてプリズムサーチを行い、プリズムが存在すれば、最終的にその位置(H,V)にてトラッキングが成功していると判定する。
オブジェクトトラッキングであれば、その位置(H,V)にカメラを向けて、オブジェクトのトラッキングを続ける。
尚、本実施例では、ターゲットとして反射体(プリズム)を利用したが、ターゲットは反射体に限定されず、視覚的に特徴があるターゲットを設けて追尾する構成としてもよい。この場合、R(赤)G(緑)B(青)等の色成分により円形の、又は同心円状に層状に構成されたターゲットとしてもよいし、反射素材塗料によるターゲットを利用することもできる。
図9は、3層のターゲット38の例を表し、中心(黒)、内側(赤)、外側(黒)の色に塗られており、移動体を状態推定手法(パーティクルフィルタ)により追尾を行うと同時にこのターゲット38を別のパーティクルフィルタ又は画像処理等によって追尾を行う構成としてもよい。つまり、本実施例に於けるレーザトラッキングの代わりに、この様なターゲットを画像処理によってトラッキング(ターゲットトラッキング)することを意味する。この時、ターゲット追尾用レーザの照射は必ずしも必要でないが、反射素材を利用した際は、より効率的にターゲットを画像処理によって追尾することができる。
又、図9の様なターゲット38の各領域の色は適時変更可能であり、2層としてもよいし、3層以上の構成としてもよい。
又、ターゲットとして発光する光点を利用することができる。この場合、移動体に所定波長の光を発光する発光体(光源)を設け、この光源からの光を本実施例に於ける撮像部(第1、第2、第3撮像部のいずれか又は全て)により検出することにより、レーザトラッキングと同様にターゲットをトラッキングすることができる。
(付記)
又、本発明は以下の実施の態様を含む。
(付記1)対象反射体(プリズム)を見失った場合、動画像(ビデオ)による状態推定手法(パーティクルフィルタ)を用い、対象反射体或はそれを含む移動対象物(重機、人等のオブジェクト)の追尾を行い、対象反射体の隠蔽、交差、振動等の状況で、対象反射体を見失ってもそれと一体となった移動対象物を検出することで対象反射体を素早く検出でき、測量作業の自動追尾に復帰する時間を短縮して作業の効率化を向上させることを特徴とする動画像追尾方法及びその装置。
(付記2)任意な移動対象物を画像上で指定後、動画像による状態推定手法(パーティクルフィルタ)を用いて自動追尾させ、特別な対象反射体がなくても移動対象物の3次元軌跡を連続して計測できることを特徴とする動画像追尾方法及びその装置。
(付記3)前記状態推定手法とは、動画像等の時系列データを用いて追尾処理を行うものであり、状態の時間変化を記述したシステム(運動)モデルと粒子の観測過程を記述した観測モデルとにより構成され、フィードバック制御しながら移動対象物を追尾することを特徴とする動画像追尾方法及びその装置。
(付記4)追尾したいオブジェクト周辺に多くのパーティクル(粒子)を生成し、そのパーティクルの尤度(特徴量)の重み付き平均値でオブジェクトの画像位置を求め、その画像位置からプリズムサーチを行って最終的に移動対象物を認識することを特徴とする動画像追尾方法及びその装置。
(付記5)前記システムモデルは移動対象物の滑らかな動きの制御を実現する為「等速度モデル」を用い、更に測量装置から得られた移動対象物迄の測距データ(D)と測角データ(H,V)から移動対象物の速度と方向を判定し、移動対象物の動きに応じた粒子の発生位置を制御する事を特徴とする動画像追尾方法及びその装置。
(付記6)前記観測モデルはシステムモデルに従って発生された各粒子の画像処理であり、移動対象物の色や画像の濃度勾配(エッジ)等に基づく「ヒストグラム」により特徴量を計算し、移動対象物のスケール変化、一部隠蔽、向き変化等の状況でも、移動対象物を安定的に特定し、ロバストネスを実現する事を特徴とする動画像追尾方法及びその装置。
(付記7)前記画像処理は追尾したプリズム若しくは一体となった移動対象物の一部をテンプレートとし、測量装置から得られる測距データに基づきテンプレートの大きさ等を更新することを特徴とする動画像追尾方法及びその装置。
1 測量装置
5 光学部
8 望遠鏡部
9 広角カメラ部
11 第1撮像部
12 第2撮像部
13 第3撮像部
14 測距部
15 水平駆動部
16 水平測角部
17 鉛直駆動部
18 鉛直測角部
21 制御装置
22 制御演算部
23 記憶部
24 光点検出処理部
25 第1画像記録部
26 撮像選択部
27 第2画像記録部
29 画像追尾処理部
31 ターゲット
34 ヒストグラム
36 テンプレート画像
38 ターゲット

Claims (23)

  1. 移動体に設けられたターゲットを視準する視準望遠鏡と、該視準望遠鏡より広画角であり、前記視準望遠鏡の視準方向、又は略視準方向の広角画像を取得する広角カメラ部と、
    前記視準望遠鏡に設けられ該視準望遠鏡を介して前記ターゲットからの光を受光し、画像を取得する第1撮像部と、前記広角カメラ部に設けられ前記ターゲット及び前記移動体の動画像を撮像する動画像撮像部と、
    前記視準望遠鏡及び前記広角カメラ部を水平方向、鉛直方向に移動させる駆動部と、
    前記第1撮像部からの画像に基づき光点を検出する光点検出処理部と、前記動画像撮像部の撮像画像に基づき画像トラッキングの為の画像処理を行う画像追尾処理部と、
    前記光点検出処理部及び前記画像追尾処理部の処理結果に基づき前記第1撮像部、前記動画像撮像部を前記ターゲットに向ける様前記駆動部を制御する制御演算部とを具備する測量装置の自動追尾方法であって、
    前記移動体に支持された前記ターゲットからの光点を検出する光点検出工程と、前記ターゲット及び前記移動体の動画像を撮像する工程と、光点検出に基づきターゲットトラッキングする工程と、該ターゲットトラッキングと並行して前記動画像に基づき画像トラッキングする工程と、前記光点検出工程により得られるターゲット位置と前記画像トラッキングにより得られる画像位置とを比較する工程とを具備し、
    前記光点検出工程で光点が検出される状態では、前記ターゲットトラッキングの結果に基づき追尾を行い、前記光点検出工程で光点が検出されない状態では、前記画像トラッキングの結果に基づき前記ターゲットトラッキングによる追尾に連続して追尾を行うことを特徴とする自動追尾方法。
  2. 前記ターゲットトラッキングする工程が、レーザ光線を照射し、前記移動体に支持された前記ターゲットからの前記光点を検出するレーザターゲットトラッキング工程である請求項1の自動追尾方法。
  3. 前記ターゲットトラッキングする工程が、前記移動体に支持された前記ターゲットが発光することによる前記光点を検出する発光ターゲットトラッキング工程である請求項1の自動追尾方法。
  4. 前記ターゲット位置と前記画像位置とがターゲットトラッキング可能な範囲内にない場合、又は前記光点が検出されず前記ターゲット位置が得られない場合は、前記画像トラッキングを続行し、前記画像トラッキングの続行と並行して前記画像位置に基づき所定範囲を前記レーザ光線によりターゲットサーチを行う工程を有する請求項1〜請求項3のいずれかの自動追尾方法。
  5. 前記動画像中の前記移動体の画像からテンプレート画像を抽出し、該テンプレート画像からヒストグラムを作成し、該ヒストグラムに基づき前記画像トラッキングが実行される請求項1又は請求項4の自動追尾方法。
  6. 前記ヒストグラムは、色彩、又は明度のヒストグラムである請求項5の自動追尾方法。
  7. 前記ヒストグラムは、エッジ処理して得られるエッジの勾配のヒストグラムである請求項5の自動追尾方法。
  8. 前記画像トラッキングには、パーティクルフィルタが用いられる請求項1又は請求項4の自動追尾方法。
  9. 前記画像トラッキングには、パーティクルフィルタが用いられ、該パーティクルフィルタは、前記テンプレート画像の周辺に多くのパーティクルを生成し、そのパーティクルの重み付き平均値で前記テンプレート画像の位置を求める請求項の自動追尾方法。
  10. 前記ターゲットの測距データ、測角データに基づき前記移動体の速度、移動方向を判定し、前記移動体の動きに応じたパーティクルの発生位置を制御する請求項9の自動追尾方法。
  11. 一時刻前の位置と現在位置の差、又は尤度の値に基づきパーティクルの発生を制御する請求項9の自動追尾方法。
  12. 移動体に設けられたターゲットを視準する視準望遠鏡と、該視準望遠鏡より広画角であり、前記視準望遠鏡の視準方向、又は略視準方向の広角画像を取得する広角カメラ部と、
    前記視準望遠鏡に設けられ該視準望遠鏡を介して前記ターゲットからの光を受光し、画像を取得する第1撮像部と、前記広角カメラ部に設けられ前記ターゲット及び前記移動体の動画像を撮像する動画像撮像部と、
    前記視準望遠鏡及び前記広角カメラ部を水平方向、鉛直方向に移動させる駆動部と、
    前記第1撮像部からの画像に基づき光点を検出する光点検出処理部と、前記動画像撮像部の撮像画像に基づき画像トラッキングの為の画像処理を行う画像追尾処理部と、
    前記光点検出処理部及び前記画像追尾処理部の処理結果に基づき前記第1撮像部、前記動画像撮像部を前記ターゲットに向ける様前記駆動部を制御する制御演算部とを具備し、
    該制御演算部は前記光点検出処理部から検出結果を基にターゲットトラッキングを行い、前記画像追尾処理部からの処理結果を基に前記ターゲットトラッキングと並行して前記画像トラッキングを行い、
    前記制御演算部は前記光点検出処理部から光点が検出される状態では、光点の検出結果に基づき追尾の為に前記駆動部を制御し、
    前記光点検出処理部で光点が検出されない状態では、前記画像トラッキングの結果に基づき追尾の為に前記駆動部を制御し、トラッキングを連続して実行する様制御することを特徴とする測量装置。
  13. 前記ターゲットトラッキングが、レーザ光線を照射し、前記移動体に支持された前記ターゲットからの反射光を検出するレーザターゲットトラッキングである請求項12の測量装置。
  14. 前記ターゲットトラッキングが、前記移動体に支持された前記ターゲットが発光することによる前記光点を検出する発光ターゲットトラッキングである請求項12の測量装置。
  15. 前記制御演算部は、前記ターゲットトラッキングで得られる光点位置と前記画像トラッキングで得られる画像位置とを比較し、該画像位置が前記ターゲットトラッキング可能な範囲内にある場合は、前記ターゲットトラッキングで得られる結果で前記ターゲットを認識する請求項12〜請求項13のいずれかの測量装置。
  16. 前記制御演算部は、前記ターゲットトラッキングで得られる光点位置と前記画像トラッキングで得られる画像位置とを比較し、該画像位置がターゲットトラッキング可能な範囲内にない場合、或は前記光点位置が得られない場合は、前記画像トラッキングで得られた画像位置に基づき前記ターゲットトラッキング可能な範囲内をレーザ光線によりサーチし、前記ターゲットを検出する様、前記駆動部を制御する請求項12又は請求項15の測量装置。
  17. 前記制御演算部はパーティクルフィルタ処理プログラムを有し、前記画像追尾処理部はパーティクルフィルタによって画像追尾処理を行う請求項12の測量装置。
  18. 前記制御演算部は、前記動画像撮像部の画像から移動体画像を抽出し、該移動体画像からヒストグラムを作成し、該ヒストグラムによって前記移動体の判別を行う請求項12の測量装置。
  19. 前記制御演算部は、前記パーティクルフィルタにより、移動体画像の周辺に多くのパーティクルを生成し、該パーティクルの尤度の重み付き平均値により画像位置を求める請求項17の測量装置。
  20. 前記制御演算部は、測距データ、測角データに基づき前記移動体の速度、移動方向を判定し、前記移動体の動きに応じてパーティクルの発生を制御する請求項17の測量装置。
  21. 前記制御演算部は、一時刻前の位置と現在位置の差又は尤度の値に基づいてパーティクルの発生を制御する請求項19又は請求項20の測量装置。
  22. 前記ヒストグラムは、色彩のヒストグラム、明度のヒストグラム、エッジ勾配のヒストグラムの少なくとも1つである請求項18の測量装置。
  23. 移動体に設けられたターゲットを視準する視準望遠鏡と、該視準望遠鏡より広画角であり、前記視準望遠鏡の視準方向、又は略視準方向の広角画像を取得する広角カメラ部と、
    前記視準望遠鏡に設けられ該視準望遠鏡を介して前記ターゲットからの光を受光し、画像を取得する第1撮像部と、前記広角カメラ部に設けられ前記ターゲット及び前記移動体の動画像を撮像する動画像撮像部と、
    前記視準望遠鏡及び前記広角カメラ部を水平方向、鉛直方向に移動させる駆動部と、
    前記第1撮像部からの画像に基づき前記ターゲットのトラッキングを行うターゲットトラッキング画像処理部と、前記動画像に基づき前記移動体のトラッキングを行う移動体画像追尾処理部と、前記ターゲットトラッキング画像処理部及び前記移動体画像処理部の処理結果に基づき前記第1撮像部、前記動画像撮像部を前記ターゲットに向ける様、前記駆動部を制御する制御演算部とを具備し、
    前記制御演算部は前記ターゲットトラッキング画像処理部からの検出結果を基にターゲットトラッキングを行い、前記ターゲットトラッキング画像処理部でターゲットを検出しない状態では前記移動体画像追尾処理部からの処理結果を基に前記ターゲットトラッキングに連続して前記移動体の画像トラッキングを行う様、前記駆動部を制御することを特徴とする測量装置。
JP2009087934A 2009-03-31 2009-03-31 自動追尾方法及び測量装置 Active JP5469899B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009087934A JP5469899B2 (ja) 2009-03-31 2009-03-31 自動追尾方法及び測量装置
EP10156948.1A EP2237071B1 (en) 2009-03-31 2010-03-18 Automatic tracking method and surveying device
US12/661,573 US8395665B2 (en) 2009-03-31 2010-03-19 Automatic tracking method and surveying device
CN2010101592323A CN101900528B (zh) 2009-03-31 2010-03-31 自动跟踪方法和测量装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009087934A JP5469899B2 (ja) 2009-03-31 2009-03-31 自動追尾方法及び測量装置

Publications (2)

Publication Number Publication Date
JP2010237169A JP2010237169A (ja) 2010-10-21
JP5469899B2 true JP5469899B2 (ja) 2014-04-16

Family

ID=42334033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009087934A Active JP5469899B2 (ja) 2009-03-31 2009-03-31 自動追尾方法及び測量装置

Country Status (4)

Country Link
US (1) US8395665B2 (ja)
EP (1) EP2237071B1 (ja)
JP (1) JP5469899B2 (ja)
CN (1) CN101900528B (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5469894B2 (ja) * 2008-07-05 2014-04-16 株式会社トプコン 測量装置及び自動追尾方法
CN102834694B (zh) * 2010-02-11 2014-11-12 特林布尔公司 双发射机跟踪器
US8787114B1 (en) 2010-09-13 2014-07-22 The Boeing Company Audio surveillance system
US8620023B1 (en) * 2010-09-13 2013-12-31 The Boeing Company Object detection and location system
EP2431708A1 (de) * 2010-09-16 2012-03-21 Leica Geosystems AG Geodätisches Vermessungssystem mit in einer Fernbedieneinheit integrierter Kamera
JP5748521B2 (ja) * 2011-03-29 2015-07-15 株式会社トプコン レーザスキャナ及び動体検知方法
JP5953658B2 (ja) 2011-05-25 2016-07-20 ソニー株式会社 ロボット制御装置及びロボット装置の制御方法、コンピューター・プログラム、プログラム記憶媒体、並びにロボット装置
EP2570769A1 (de) * 2011-09-13 2013-03-20 Hexagon Technology Center GmbH Geodätisches Vermessungssystem und Verfahren mit multipler Zielverfolgungsfunktionalität
CN102506702B (zh) * 2011-09-29 2013-12-11 天津大学 带有激光跟踪的大型三坐标测量方法与装置
US9222771B2 (en) 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site
JP6120521B2 (ja) 2012-10-19 2017-04-26 株式会社トプコン 3次元測量装置及び3次元測量システム
JP6129545B2 (ja) * 2012-12-18 2017-05-17 Ntn株式会社 空間座標測定装置および空間座標測定方法
KR20140108047A (ko) * 2013-02-28 2014-09-05 삼성전자주식회사 물체 추적 방법, 물체의 표시 상태 판단 방법 및 물체 추적이 가능한 제어 장치
JP6147037B2 (ja) * 2013-03-14 2017-06-14 株式会社トプコン 建設機械制御システム
CN103363902B (zh) * 2013-07-16 2016-03-30 清华大学 基于红外激光的粉尘环境中运动目标位姿检测装置及方法
JP6245886B2 (ja) * 2013-08-08 2017-12-13 キヤノン株式会社 画像撮像方法及び画像撮像装置
EP3376161B1 (en) 2013-12-05 2021-07-07 Trimble AB Operating a total station with a stair-like scanning profile
EP3077768B1 (en) 2013-12-05 2020-01-15 Trimble AB Distance measurement instrument with scanning function
FR3017481B1 (fr) * 2014-02-07 2016-02-26 Sagem Defense Securite Procede de detection et de pistage de cibles
JP6399869B2 (ja) * 2014-09-09 2018-10-03 キヤノン株式会社 被写体追尾装置、撮像装置、被写体追尾方法及びプログラム
JP2016127377A (ja) * 2014-12-26 2016-07-11 カシオ計算機株式会社 画像処理装置及び画像処理方法、画像再生装置及び画像再生方法、並びにプログラム
JP6438311B2 (ja) * 2015-01-27 2018-12-12 株式会社トプコン 測量システム、測量方法、測量機及び測量用反射ターゲット
EP3064898B1 (de) 2015-03-04 2019-12-18 Leica Geosystems AG Vermessungsgerät mit Feinanzielungs- bzw. Zielverfolgungsfunktionalität
CN105023278B (zh) * 2015-07-01 2019-03-05 中国矿业大学 一种基于光流法的运动目标跟踪方法及系统
CN105072329A (zh) * 2015-07-17 2015-11-18 深圳市金立通信设备有限公司 一种拍摄方法及终端
CN105389807B (zh) * 2015-10-26 2018-06-12 南京理工大学 一种融合梯度特征和自适应模板的粒子滤波红外跟踪方法
EP3199913B1 (de) * 2016-01-28 2019-04-03 Leica Geosystems AG Vorrichtung zum automatischen auffinden eines beweglichen geodätischen zielobjekts
JP6682371B2 (ja) * 2016-06-14 2020-04-15 株式会社トプコン 建設機械の制御システム
CN107680132B (zh) * 2016-08-02 2021-03-05 重庆富沛和科技有限公司 基于唤醒模式的发光信标的目标识别系统及其控制方法
CN106679638A (zh) * 2016-12-20 2017-05-17 常州市新瑞得仪器有限公司 全站仪及其放样导向的方法
CN108881342B (zh) * 2017-05-11 2022-04-29 京东方科技集团股份有限公司 一种目标追踪方法和目标追踪系统
JP6913422B2 (ja) * 2017-07-06 2021-08-04 株式会社トプコン 測量システム
JP7037860B2 (ja) * 2017-11-17 2022-03-17 株式会社トプコン 測量装置及び測量装置システム
CN109118519A (zh) * 2018-07-26 2019-01-01 北京纵目安驰智能科技有限公司 基于实例分割的目标Re-ID方法、系统、终端和存储介质
EP3614173A1 (en) 2018-08-20 2020-02-26 Leica Geosystems AG Surveying device with automatic training of locked object or person for camera based target tracking
GB2578289A (en) * 2018-10-15 2020-05-06 Q Bot Ltd Sensor apparatus
JP7083315B2 (ja) * 2019-02-22 2022-06-10 日立建機株式会社 施工管理システム
JP7417130B2 (ja) * 2019-05-21 2024-01-18 日本電信電話株式会社 位置計測方法、運動制御方法及び運動制御システム
EP3786578B1 (en) * 2019-09-02 2022-03-09 Leica Geosystems AG Surveying instrument
CN113179371B (zh) * 2021-04-21 2023-04-07 新疆爱华盈通信息技术有限公司 一种拍摄方法、装置及抓拍系统
CN117836588A (zh) * 2021-06-11 2024-04-05 株式会社尼康 位置测定装置、位置测定系统以及测定装置
CN113610888B (zh) * 2021-06-29 2023-11-24 南京信息工程大学 一种基于高斯平滑的孪生网络目标跟踪方法
CN116295004B (zh) * 2023-02-10 2023-12-15 深圳市中图仪器股份有限公司 坐标测量装置的跟踪策略的优化方法
CN117522926B (zh) * 2024-01-08 2024-04-02 四川迪晟新达类脑智能技术有限公司 基于fpga硬件平台的红外光斑目标识别和跟踪方法

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
JP3621123B2 (ja) 1993-12-28 2005-02-16 株式会社トプコン 測量機
JP3057004B2 (ja) * 1996-06-19 2000-06-26 松下電工株式会社 追尾装置
US5780839A (en) * 1996-04-02 1998-07-14 Trw Inc. Laser crossbody and feature curvature tracker
US5936229A (en) * 1996-04-02 1999-08-10 Trw Inc. Tracking means for distant ballistic missile targets comprising means for tracking largest radius of curvature
US5999210A (en) 1996-05-30 1999-12-07 Proteus Corporation Military range scoring system
US5955724A (en) 1996-10-11 1999-09-21 Trw Inc. Laser along-body tracker comprising laser beam dithering
US5973309A (en) * 1997-08-27 1999-10-26 Trw Inc. Target-tracking laser designation
JP3805504B2 (ja) * 1997-11-14 2006-08-02 株式会社トプコン 測量機の通信システム
JP4320099B2 (ja) 1999-03-26 2009-08-26 株式会社トプコン 測量装置
JP4236326B2 (ja) * 1999-03-26 2009-03-11 株式会社トプコン 自動測量機
JP4210792B2 (ja) * 1999-06-15 2009-01-21 株式会社トプコン 位置検出装置
US6574353B1 (en) 2000-02-08 2003-06-03 University Of Washington Video object tracking using a hierarchy of deformable templates
JP2001298656A (ja) * 2000-04-13 2001-10-26 Nec Corp 撮像装置
JP2002064812A (ja) * 2000-08-17 2002-02-28 Sharp Corp 移動物体追尾装置
JP2002131054A (ja) 2000-10-26 2002-05-09 Shimizu Corp 自動測量方法
JP3816812B2 (ja) * 2002-02-14 2006-08-30 株式会社ソキア トータルステーション
JP2003329448A (ja) * 2002-05-10 2003-11-19 Komatsu Ltd 現場の3次元情報生成システム
JP4228131B2 (ja) * 2002-10-11 2009-02-25 株式会社トプコン 位置測定装置
JP2004144629A (ja) 2002-10-25 2004-05-20 Pentax Precision Co Ltd 測量機
JP4255682B2 (ja) 2002-11-22 2009-04-15 株式会社トプコン 反射体自動追尾装置
KR20040107044A (ko) * 2003-06-12 2004-12-20 삼성전자주식회사 광 디스크 판별 방법 및 그 장치
JP2005069977A (ja) * 2003-08-27 2005-03-17 Nippon Telegr & Teleph Corp <Ntt> 物体移動経路トラッキング装置およびトラッキング方法
US7444002B2 (en) 2004-06-02 2008-10-28 Raytheon Company Vehicular target acquisition and tracking using a generalized hough transform for missile guidance
US7629995B2 (en) 2004-08-06 2009-12-08 Sony Corporation System and method for correlating camera views
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
JP4470759B2 (ja) * 2005-02-28 2010-06-02 ソニー株式会社 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体
JP2006242755A (ja) * 2005-03-03 2006-09-14 Sokkia Co Ltd 測量システム
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
US20070058717A1 (en) 2005-09-09 2007-03-15 Objectvideo, Inc. Enhanced processing for scanning video
JP4188394B2 (ja) 2005-09-20 2008-11-26 フジノン株式会社 監視カメラ装置及び監視カメラシステム
JP4241742B2 (ja) * 2006-01-31 2009-03-18 パナソニック株式会社 自動追尾装置及び自動追尾方法
US8848053B2 (en) 2006-03-28 2014-09-30 Objectvideo, Inc. Automatic extraction of secondary video streams
TWI315152B (en) * 2006-05-19 2009-09-21 Primax Electronics Ltd Image object location detection method
WO2008097327A2 (en) * 2006-06-16 2008-08-14 D & S Consultants, Inc. Method and system for tracking a target
US7839431B2 (en) * 2006-10-19 2010-11-23 Robert Bosch Gmbh Image processing system and method for improving repeatability
JP2008262331A (ja) * 2007-04-11 2008-10-30 Toshiba Corp オブジェクト追跡装置およびオブジェクト追跡方法
IL183320A (en) * 2007-05-20 2011-12-29 Rafael Advanced Defense Sys Merge information from tracking and imaging
JP5018321B2 (ja) * 2007-08-06 2012-09-05 国立大学法人 千葉大学 自動追尾装置
EP2043045B1 (de) * 2007-09-20 2011-09-07 Delphi Technologies, Inc. Verfahren zur Objektverfolgung
JP5469894B2 (ja) * 2008-07-05 2014-04-16 株式会社トプコン 測量装置及び自動追尾方法
US20100035217A1 (en) * 2008-08-11 2010-02-11 David Kasper System and method for transmission of target tracking images
JP5227139B2 (ja) 2008-11-12 2013-07-03 株式会社トプコン 建設機械
CN101852857B (zh) * 2009-03-30 2013-07-17 株式会社拓普康 测量装置和自动跟踪方法

Also Published As

Publication number Publication date
CN101900528B (zh) 2013-05-08
US8395665B2 (en) 2013-03-12
EP2237071A1 (en) 2010-10-06
CN101900528A (zh) 2010-12-01
US20100245587A1 (en) 2010-09-30
JP2010237169A (ja) 2010-10-21
EP2237071B1 (en) 2016-07-20

Similar Documents

Publication Publication Date Title
JP5469899B2 (ja) 自動追尾方法及び測量装置
US11657595B1 (en) Detecting and locating actors in scenes based on degraded or supersaturated depth data
JP5469894B2 (ja) 測量装置及び自動追尾方法
JP5343042B2 (ja) 点群データ処理装置および点群データ処理プログラム
JP5227139B2 (ja) 建設機械
JP4485365B2 (ja) 測距装置
US8184267B2 (en) Surveying instrument
US9528828B2 (en) Method and system for determining position and orientation of a measuring instrument
JP2015535337A (ja) 角度スキャン速度の動的調整を伴うレーザスキャナ
Gschwandtner et al. Infrared camera calibration for dense depth map construction
CN104067111A (zh) 用于跟踪和监测目标对象上的差异的自动化系统和方法
US20140049600A1 (en) Method and system for improving surveillance of ptz cameras
CN112995585B (zh) 具有可转向镜的机器视觉系统和方法
JP6811661B2 (ja) 移動体撮像装置および移動体
JPH1144533A (ja) 先行車両検出装置
JP2003061075A (ja) 物体追跡装置、物体追跡方法および侵入者監視システム
CN107093193B (zh) 用于借助摄像机构建深度图的方法
WO2019244542A1 (ja) 走行装置、走行装置の制御方法、走行プログラムおよび記録媒体
KR101209598B1 (ko) 감시 시스템
JP2020136213A (ja) 追尾型照明装置および照明追尾システム
EP4270050A1 (en) Method for coordinative measuring by terrestrial scanning with image-based interference detection of moving objects
KR102400007B1 (ko) 라이다 센서를 포함하는 감시 카메라 시스템
WO2023163760A1 (en) Tracking with reference to a world coordinate system
Habib Intelligent sensor system for real time tracking and monitoring

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140203

R150 Certificate of patent or registration of utility model

Ref document number: 5469899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250