JP6426725B2 - 移動可能な対象物体の場所を追跡するためのシステム及び方法 - Google Patents

移動可能な対象物体の場所を追跡するためのシステム及び方法 Download PDF

Info

Publication number
JP6426725B2
JP6426725B2 JP2016521401A JP2016521401A JP6426725B2 JP 6426725 B2 JP6426725 B2 JP 6426725B2 JP 2016521401 A JP2016521401 A JP 2016521401A JP 2016521401 A JP2016521401 A JP 2016521401A JP 6426725 B2 JP6426725 B2 JP 6426725B2
Authority
JP
Japan
Prior art keywords
target object
image
camera
pan
active target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016521401A
Other languages
English (en)
Other versions
JP2016526673A (ja
Inventor
ジェームズ ジェー. トロイ,
ジェームズ ジェー. トロイ,
スコット ダブリュ. レア,
スコット ダブリュ. レア,
ダニエル ジェームズ ライト,
ダニエル ジェームズ ライト,
ゲアリー イー. ジョージソン,
ゲアリー イー. ジョージソン,
カール エドワード ネルソン,
カール エドワード ネルソン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2016526673A publication Critical patent/JP2016526673A/ja
Application granted granted Critical
Publication of JP6426725B2 publication Critical patent/JP6426725B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Description

本開示は、概して、移動可能な対象物体(例えば、コンピュータプログラムによってガイドされる履帯自動車(crawler vehicle)又は他の電気機械マシン)が、ワークピース又は部品に対して移動する際に、その場所を追跡するためのシステム及び方法に関する。
履帯自動車又は他の電気機械マシンを使用する製造プロセスを含んだ用途は、しばしば、基準座標系における場所追跡を採用する。既存の場所追跡解決法は、2つの範疇に当てはまる。すなわち、絶対動作追跡及び増分動作追跡である。絶対動作追跡は、飛行機座標系などの基準座標系内で規定された位置及び/又は方向の追跡である。絶対動作追跡のための既存の技術は、光学式動作取得(optical motion capture、レーザー追跡、深度カメラ(depth camera)、磁気追跡、及び音波ベースの追跡(sonic‐based tracking)を含む。
増分動作追跡は、前の座標値に対する変位を測定する。増分動作追跡のための1つの既知の技術は、増分動作に応じてパルスを出力するエンコーダを採用する。増分動作測定法を使用する用途では、時を経て誤差が蓄積され得る。そのような誤差の蓄積は、絶対座標系に対する限定的な誤差を要求する使用事例において望ましくない。より高い更新速度で実行される増分動作測定システムへ統合され得るより低い更新速度での正確な絶対測定法を提供するプロセスを実施する必要がある。
光学式の又は画像ベースの技術を使用して位置及び方向を測定する他の絶対測定システムが存在するが、それらは、通常、対象物体の周りに配置された複数のカメラを必要とする。単一の「深度(depth)」カメラを使用する1つの既知の絶対測定システムは、特定の特徴を区別するために限られた範囲及び限られた能力を有する。単一の標準的なビデオカメラを使用して位置及び方向を追跡することができるとすれば有利である。
本明細書で開示される自動化された測定プロセスは、相対的な(増分)追跡データを生成するシステム内で絶対測定値を提供する。この用途は、更に、単一のカメラ構成を使用するが故に設定することが容易な、携帯可能なより低い費用の装備を使用して、表面履帯自動車(surface‐crawling vehicle)などの輸送体に対する自動化された動作追跡及び制御に取り組む。走行距離計測法(又は他の相対座標測定法)と共に使用される場合に、この追跡システムは、動作が制御された輸送体に対して絶対座標補正法を提供することができる。動作制御なしに使用される場合に、それは、未だ、大きな容積内で1以上の物体の場所を追跡する自動化された方法を提供することができる。
自動化されたプロセスは、1以上の移動可能な対象物体に対する場所(すなわち、位置及び方向)データを取得するために局所的測位システム(LPS)を使用し、一方、それらの対象物体は少なくとも瞬間的に静止する(すなわち、プロセスの測定部分が完了できるのに十分な長さだけ)。対象物体がコンピュータ制御の下で移動する能力を有する場合に、この自動化されたプロセスは、測定された場所データを使用して、そのような対象物体の位置及び方向を補正することができる。システムは、局所的測位システムの測定及び画像取得能力を活用し、制御可能な標識灯(マーカーライト)、画像処理、及び座標変換計算を統合して、輸送体の場所を制御するための追跡情報を提供する。結果としてのシステムは、飛行機の翼表面上の履帯自動車の追跡などの、基準座標系内における物体の位置及び方向の追跡を可能にする。システムは、他のタイプの非搭載型の追跡システムに対する低い費用の代替案を提供する。それは、携帯可能で、設定が容易で、単一のユーザによって動作可能である。
以下に詳細に開示される主題の一側面は、対象物体に、既知のパターンで配置された少なくとも3つのアクティブ標的マーカー(active target marker)が装備された場合に、3次元基準座標系内で対象物体の現在の場所を決定するための方法である。方法は、以下のステップを備える。すなわち、(a)基準座標系に対するカメラの場所を規定するステップ、(b)カメラが対象物体の中心を狙い、アクティブ標的マーカーの全てが起動されていない間に、画像を取得するステップ、(c)カメラが対象物体の中心を狙い、アクティブ標的マーカーの1以上が起動されている間に、1以上の画像を取得するステップ、(d)画像を処理して、アクティブ標的マーカーの全てが起動されていなかった間に取得された画像と、アクティブ標的マーカーの1以上が起動されていた間に取得された各々の画像との間の差異を表す差異画像を計算するステップ、(e)それぞれのアクティブ標的マーカーに対応する差異画像内の差異領域に対するそれぞれの平均画素座標を計算するステップ、(f)それぞれのアクティブ標的マーカーに対して、少なくとも、対象物体がカメラの画像視野内の中心に置かれたときのパン及びチルト角度、及びそれぞれの平均画素座標と画像の中心の画素座標との間の差異の関数であるそれぞれのパン及びチルト角度によって規定された方向に、レーザー測距器を向け、レーザービームを送信するステップ、(g)それぞれのアクティブ標的マーカーに対して、それぞれのレーザービームの送信に後続してそれぞれの距離、パン及びチルトデータを取得するステップ、(h)測定された距離、パン及びチルトデータに基づいて、基準座標系内のアクティブ標的マーカーに対応するそれぞれの点の座標を計算するステップ、並びに(i)その座標が、測定されたパン、チルト、及び距離データから計算されたところのそれぞれの点のそれぞれの位置を、既知のパターン内に配置されたそれぞれの点のそれぞれの位置と比較して、基準座標系に関して規定された対象物体の現在の位置及び方向を決定するステップである。
幾つかの実施形態によれば、ステップ(c)は、少なくとも3つのアクティブ標的マーカーが起動されている間に、1つの画像を取得することを含む。他の実施形態によれば、ステップ(c)は、第1、第2、及び第3のアクティブ標的マーカー次々に起動されている間に、それぞれの画像を取得することを含む。
幾つかの実施形態によれば、ステップ(d)は、差異に基づいてアクティブ標的マーカーに対応する個別の領域を含むように差異画像を分割し、アクティブ標的マーカーに対応する各々の個別の領域のそれぞれの重心に対する差異画像内のそれぞれの平均画素座標を計算することを含む。
別の側面によれば、上述された方法は、更に、点の間の相対的な距離に基づいて点パターンを測定すること、及び測定された点パターンと既知の点パターンとの間の差異に基づいて、基準座標系内の対象物体の場所を表す第1の変換行列を計算することを含み得る。幾つかの実施形態では、既知の点パターンは非対称である。
更なる側面によれば、上述された方法は、更に、対象物体を初期的な場所に配置すること、基準座標系に対する対象物体の初期的な場所を表す第2の変換行列を計算すること、対象物体を初期的な場所から現在の場所に移動させること、第2の変換行列の逆行列を計算すること、及び第1の変換行列と第2の変換行列の逆行列との積を計算することを含み得、該積は、対象物体の初期的な場所に対する対象物体の現在の場所を表す第3の変換行列である。幾つかの実施形態によれば、方法は、更に、初期的な場所から現在の場所への移動の間に、対象物体の増分動作に応じてエンコーダパルスを生成することを含む。
以下に詳細に開示される主題の別の側面は、パンチルト機構、パンチルト機構に設置されたカメラ及びレーザー測距器、少なくとも3つのアクティブ標的マーカーが装備された対象物体、並びにカメラ、レーザー測距器、及びパンチルト機構を制御するための第1のソフトウェア、カメラによって取得された画像を処理するための第2のソフトウェア、及び対象物体の動作と少なくとも3つのアクティブ標的マーカーの状態とを制御するための第3のソフトウェアがプログラムされたコンピュータシステムを備える、場所追跡システムである。
前の段落で説明された場所追跡システムの一実施形態によれば、第1のソフトウェアは、パンチルト機構にカメラを対象物体に向けさせるように指示命令し、カメラに対象物体の画像を取得させるように指示命令するためのルーチンを含み、第2のソフトウェアは、取得された画像を処理して、アクティブ標的マーカーが起動されていなかった間に取得された画像と、アクティブ標的マーカーの1以上が起動されていた間に取得された各々の画像との間の差異を表す差異画像を計算するためのルーチンを含み、かつ第3のソフトウェアは、アクティブ標的マーカーの各々の状態を制御するためのルーチンを含む。対象物体は、例えば、履帯自動車、又はロボットアームのベースを備え得る。履帯自動車がホロノミック(holonomic)な動作の履帯自動車である実施形態では、システムは、更に、履帯自動車の増分動作を追跡するための手段を含み得る。
更に別の側面は、パンチルト機構、パンチルト機構に設置されたカメラ及びレーザー測距器、既知のパターンで配置された少なくとも3つのアクティブ標的マーカーが装備された対象物体、及び以下の動作を実行するようにプログラムされたコンピュータシステムを備える、場所追跡システムである。すなわち、(a)パンチルト機構のパン及びチルト角度を調整して、カメラが、カメラの画像視野内でアクティブ標的マーカーを有する対象物体の中心を狙うようにすること、(b)カメラが対象物体の中心狙い、かつアクティブ標的マーカーの全てが起動されていない間に、画像を取得するようにカメラに指示命令すること、(c)カメラが対象物体の中心を狙い、かつアクティブ標的マーカーの1以上が起動されている間に、1以上の画像を取得するようにカメラに指示命令すること、(d)画像を処理して、アクティブ標的マーカーが起動されていなかった間に取得された画像と、アクティブ標的マーカーの1以上が起動されていた間に取得されたそれぞれの画像との間の差異を表す差異画像を計算すること、(e)それぞれのアクティブ標的マーカーに対応する差異画像内の差異領域に対するそれぞれの平均画素座標を計算すること、(f)それぞれのアクティブ標的マーカーに対して、少なくとも、対象物体がカメラの画像視野内の中心に置かれたときのパン及びチルト角度、及びそれぞれの平均画素座標とインジケータ画像の中心の画素座標との間の差異の関数であるそれぞれのパン及びチルト角度によって規定された方向に、レーザー測距器を向けさせ、レーザービームを送信させるように指示命令すること、(g)それぞれのアクティブ標的マーカーに対して、それぞれのレーザービームの送信に後続してそれぞれのパンチルトデータを取得させるようにパンチルト機構に指示命令し、それぞれのレーザービームの送信に後続してそれぞれの距離データを取得させるようにレーザー測距器に指示命令すること、(h)測定された距離、パン及びチルトデータに基づいて、基準座標系内のアクティブ標的マーカーに対応するそれぞれの点の座標を計算すること、並びに(i)その座標が、測定されたパン、チルト、及び距離データから計算されたところのそれぞれの点のそれぞれの位置を、既知のパターン内に配置されたそれぞれの点のそれぞれの位置と比較して、基準座標系に関する対象物体の現在の位置及び方向を決定する。
移動可能な対象物体の場所を追跡するためのシステム及び方法の他の側面が以下に説明される。
その増分動作が、推測走行距離計測法ベースのプロセス(dead‐reckoning odometry‐based process)を使用して追跡されることができるところの、既知のエンコーダが装備された携帯型装置の幾つかの構成要素の概略上面図である。 対象物体に向けられた既知の局所的測位システムの概略等角図である。 一構成による、局所的測位システムを使用して、履帯自動車の動作を追跡し制御するためのシステムの概略等角図である。 各々の側(1セットのみが見える)の3つのアクティブ標的マーカーのそれぞれのセットを有する履帯自動車の概略斜視図である。描かれる実施形態によれば、アクティブ標的マーカーはLEDライトである。 一実施形態による、自動化された場所測定プロセスのステップを示すフローチャートのそれぞれの部分を含んだ、図5A及び図5Bの相互関係を示す。 一実施形態による、自動化された場所測定プロセスのステップを示すフローチャートのそれぞれの部分を含んだ、図5A及び図5Bの相互関係を示す。 図5で描かれたプロセスによる、図4で示された履帯自動車を使用して生み出された中間的な画像処理結果を表す図である。 単一のコンピュータが複数のプロセスを実行するシステム構成を示すブロック図である。(代替的に、各々プロセスは、個別のコンピュータ又はプロセッサで実行され得る。) 別の構成による、ロボットと部品との場所特定プロセスを実行することができるシステムの概略等角図である。 図8で描かれたタイプの局所的測位システムを採用するロボットと部品との場所特定プロセスのステップを示すフローチャートである。 付録で言及され、計器座標系{A}の原点から、計器の目標点軸に実質的に沿って、関心点Pまで延伸する位置ベクトルAPを示し、対象物体座標系{B}の原点から、関心点Pまで延伸する位置ベクトルBPを示す図である。 付録で言及され、座標系変換のための較正行列を計算するための例示的な方法が描かれる図である。 付録で言及され、座標系変換のための較正行列を計算するための例示的な方法が描かれる図である。 付録で言及され、座標系変換のための較正行列を計算するための例示的な方法が描かれる図である。 アクティブ標的マーカーの全てがLPSカメラの画像フレームの範囲のちょうど内側にあることを保証するように適切なカメラの視野(ズーム値)を設定するための自動化された探索及びフレームプロセスを示す図である。 アクティブ標的マーカーの全てがLPSカメラの画像フレームの範囲のちょうど内側にあることを保証するように適切なカメラの視野(ズーム値)を設定するための自動化された探索及びフレームプロセスを示す図である。 アクティブ標的マーカーの全てがLPSカメラの画像フレームの範囲のちょうど内側にあることを保証するように適切なカメラの視野(ズーム値)を設定するための自動化された探索及びフレームプロセスを示す図である。証するように適切なカメラの視野(ズーム値)を設定するための自動化された探索及びフレームプロセスを示す図である。
本明細書中、以下で図を参照するが、異なる図の中の類似の要素には同一の参照番号が付される。
本明細書中の教示によれば、例えば、位置エンコーダを使用して、増分的に追跡された動作の完了の後に、絶対座標内で移動可能な対象物体の場所を測定することができる場所追跡システムが、提供され得る。絶対座標測定システムが、瞬間的に静止している対象物体の現在の場所が、構成可能な許容値を超えて望ましい場所から逸脱していると決定する場合に、対象物体は正しい場所へ向かって移動するように指示命令され得る。したがって、本明細書中で開示される絶対座標測定プロセスは、相対座標測定内の誤差を補正するために利用され得る。
増分動作測定システムの一実施例は、推測走行距離計測法ベースのプロセスである。任意の推測解決法は、時を経て蓄積される小さな誤差のために測定値の不正確さを有する。これらは、装置内でのシステマティックな誤差、又は環境内の予期せぬ変化によってもたらされる混乱によってもたらされる。図1は、米国特許出願番号13/796,584で開示された、その増分動作が、推測走行距離計測法ベースのプロセスを使用して追跡されることができるところの、エンコーダが装備された携帯型装置の幾つかの構成要素の概略上面図である。この装置は、4つの全方向車輪(four‐omni wheel)を有し、垂直な2重の異なる構成(double‐differential configuration)を有する。この追跡装置は、(図1では示されていない)エンドエフェクタが装備された履帯自動車に連結され又は設置され得る。図1で示される装置は、矩形のフレーム4と、それぞれの車軸6a‐6d及び(図示せぬ)軸受によってフレーム4に回転可能に設置された4つの2重の列の全方向車輪4a‐4dとを備える。それぞれのエンコーダ8a‐8dは、全方向車輪4a‐4bの回転を測定する。全方向車輪が表面上で回転すると、エンコーダ8a‐8dは、各々の全方向車輪の各々の増分回転の後に、それぞれのエンコーダカウントを表すエンコーダパルスを、(図1では示されていない)エンコーダケーブルを介して、動作制御センターに送る。各々のエンコーダは、それぞれの全方向車輪の回転の角度に比例するエンコーダカウントを出力する。これらのエンコーダパルスは、装置のX及びY座標を計算する(図1では示されていないが、図7で見ることができる)コンピュータシステムによって受信される。
制御システムは、エンコーダパルスのカウントが、装置が望ましい場所に到着したことを示す場合に、装置を停止させる。停止した装置の現在の場所が、そのとき、チェックされて、望ましい位置からどの程度離れているかを決定することができる。本明細書中の教示によれば、より低い更新速度における正確な絶対測定値を取得することによって、相対動作測定値に対して補正が行われ得る。(対象物体が停止している間に実行される)この絶対測定プロセスは、より高い更新速度で実行される相対動作測定システムへと統合され得、それは、対象物体が移動している間に相対動作測定値を取得する。本明細書中で開示される一実施形態によれば、より低い更新速度のLPSベースのプロセスは、より高い更新速度の走行距離計測システムに対して補正を提供する。
本明細書中で開示される追跡方法は、対象物体の位置及び方向を計算するために、対象物体上のアクティブライト及び画像処理を組み込んだ自動化されたプロセスである。それは、図2で描かれるタイプの局所的測位システム(LPS)を使用し、そのシステムは、制御可能なパンチルトユニット上に単一のカメラ及びレーザー測距器を有する。LPSの動作及び補正プロセスは、米国特許番号7,859,655で開示される。
より具体的には、図2で描かれる局所的測位システムは、自動化された(遠隔制御の)ズーム能力を有し得るビデオカメラ40を備える。ビデオカメラ40は、付加的に、完全な照準線生成器(integral crosshair generator)を含み得、ビデオカメラの光学的な画像フィールド表示の範囲内で点の正確な場所決定を容易にする。ビデオカメラ40は、パンチルト機構42に支持される。ビデオカメラ40及びパンチルト機構42は、コンピュータ48によって動作され得る。コンピュータ48は、ビデオ/制御ケーブル46を介して、ビデオカメラ40及びパンチルト機構42と通信する。代替的に、コンピュータ48は、(図示せぬ)無線通信パスウェイを介して、ビデオカメラ40及びパンチルト機構42と通信し得る。パンチルト機構42のパン及びチルト角度、及び、それ故、ビデオカメラ40の方向は、コンピュータ48のキーボード又は他の入力装置を使用して制御され得る。光学的な画像フィールドは、照準線を当てることを伴って、ビデオカメラ40によって狙われて、コンピュータ48のモニター上に表示され得る。
パンチルト機構42は、垂直、アジマス(パン)軸、及び水平、仰角(チルト)軸の周りの選択された角度に対してビデオカメラ40を位置的に調整するように制御される。三脚44(又はパンチルトユニットが取り付けられる他のプラットフォーム)の固定された座標系に対するカメラの方向を表す方向ベクトル12は、パン及びチルト角度から決定され、カメラが関心点を狙う場合の光学的なフィールド内の照準線マーカーの中心の位置も同様である。この方向ベクトル12は、カメラ40のレンズから延伸し対象物体30上の場所と交差するラインとして描かれることができる。
レーザー測距器は、カメラ40のハウジングの内側に組み込まれ得、又はカメラ40の外側に設置され得、それによって、ベクトル12の方向に沿ってレーザービームを送信する。レーザー測距器は、対象物体30までの距離を測定するように構成される。レーザー測距器は、レーザー、及び対象物体30によって反射されたレーザービームに応じて検出されたレーザー光に基づいて距離を計算するように構成されたユニットを有し得る。
図2で示された局所的測位システムは、更に、コンピュータ48にロードされる3次元の場所特定ソフトウェアを含む。例えば、3次元の場所特定ソフトウェアは、対象物体30上の複数の較正点14を使用して、対象物体30に対するビデオカメラ40の場所(位置及び方向)を規定するタイプのものであり得る。較正点14は、特徴点位置の3次元データベース(例えば、CADモデル)又は他の測定技術から決定された、対象物体30の局所的な座標系内の既知の位置の可視的な特徴点であり得る。LPS較正プロセスの間に、同一線上にない少なくとも3つの点に対するX、Y、Xデータが、CADモデルから読み出される。典型的には、対象物体上に容易に配置され得る特徴点に対応する較正点が選択される。3次元の場所特定ソフトウェアは、較正点14のX、Y、Zデータ、及びパンチルト機構42からのパン及びチルトデータを利用して、対象物体30の局所的な座標系に関するビデオカメラ40の相対的な位置及び方向を規定する。較正点14に対して測定された距離は、パンチルト機構42からのパン及びチルト角度と併せて使用され得、対象物体30に対するカメラの位置及び方向の値を求めることができる。対象較正変換行列(時々、カメラ姿勢(camera pose)と呼ばれる)に対する計器(instrument)を作り出すための方法は、米国特許番号7,859,655で開示される。既知データ及び測定されたデータを使用して、(付録でより詳細に説明される)較正プロセスは、対象物体に対するカメラの位置及び方向を規定する4×4の同次変換行列を計算する。
一旦、対象物体30に関するビデオカメラ40の位置及び方向が決定され、カメラ姿勢変換行列が生成されると、カメラのパンデータ(アジマス軸の周りのビデオカメラ40の回転の角度)、及びチルトデータ(仰角軸の周りのビデオカメラ40の回転の角度)は、計算されたビデオカメラ40の位置及び方向と併せて使用され得、対象物体の座標系内の対象物体30上の任意の関心点のX、Y、及びZ座標を決定することができる。
上述の場所特定及び動作追跡のプロセスは、類似のやり方で拡大され適用されて、絶対(基準)座標系内の対象物体上の任意の関心点のX、Y、及びZ座標を決定することができる。例えば、局所的測位システムは、図3で描かれるように、飛行機の基準座標系内の飛行機の翼50上で移動している履帯自動車10の動作を追跡するために使用されることができる。より具体的には、局所的測位システムは、飛行機の基準座標系内の履帯自動車の原点の場所を追跡することができる。上述の変換行列内のX、Y、及びZの値は、履帯自動車の座標系の原点の位置における、初期位置から現在の位置までの差異に基づいて計算される。原点は、履帯自動車(又は他の対象物体)上の任意の場所で規定され得る。図3では、履帯自動車の座標系の原点は、点P1にあるものとして示される。
LPS制御ソフトウェアに加えて、コンピュータ48は、ビデオカメラ40によって取得された画像のセット間の差異を検出するこができる画像処理ソフトウェアがプログラムされる。動作制御が動作追跡と組み合される場合に、コンピュータ48は、更に、電気ケーブル38を介して履帯自動車10に搭載されたプロセッサと通信する履帯動作制御ソフトウェアがプログラムされる。代替的に、LPS制御ソフトウェア、画像処理ソフトウェア、及び履帯動作制御ソフトウェアは、ネットワーク又はバスを介して通信する個別のコンピュータ又はプロセッサで実行されることができる。
例えば、瞬間的に静止している対象物体の表面に取り付けられたコンピュータで制御された発光ダイオード(LED)などの、アクティブライト(本明細書では以後、「アクティブ標的マーカー」と呼ぶ)を用いて、画像のシークエンスを取得することによって、自動化された絶対測定プロセスは機能する。図3で示される実施例では、3つのアクティブ標的マーカーの位置が、点P1、P2、及びP3によって示されている。
図4は、4つのメカナムホイール54(2つのみが見えている)、4つの全方向車輪55(図4では1つのみが見えている)、輸送体の下の(図示せぬ)2つの吸引区域、及び各々の側の3つのLEDライト56a‐cのそれぞれのセット(図4では1つのセットのみが見えている)を有するホロノミックな動作の履帯自動車52の概略斜視図である。(図4で描かれるタイプのホロノミックな動作の履帯自動車の構造及び機能に関する詳細は、米国特許出願番号13/210,899で開示される。)図4で描かれる実施形態によれば、LEDライト56a‐cは、履帯自動車のカバー上で非対称なパターンで配置される。各々のLEDライトは、概して、履帯自動車52のカバー58の上方へ突出する半球状のバルブを有する。
絶対測定プロセスは、LEDライト56a‐cをオフにして画像を取得し、その後、ライトをオンにして別の画像を取得することによって実施される(逆もあり得る)。プロセスの2つの変形例が展開され、すなわち、一方は同時に全てのライトがオンにされる場合であり、他方はライトが特定のシークエンスでオンにされる場合である。第1の方式は、わずかにより速い。それは、非対称な対象物体の表面上のライトのパターンを採用する。第2の方法は、ライトの間の差異においてよりロバストであり、ライトのパターンが非対称にされる必要はない。
絶対測定システムは、有限な時間間隔において位置及び方向のデータを生成する。連続的な測定の間の時間間隔は、パンチルトモータが対象点の間で移動しなければならない距離、レーザー測距器の更新速度、及び画像処理の速度に応じる。測定サイクルの継続時間は、より速い画像処理及びより速いレーザー測距器を使用することによって改良され得る。システムは、複数の対象物体の場所を追跡するために使用され得るが、より多くの対象物体が追跡されれば、各々の対象物体に対する更新の間の時間はより長くなる。
絶対測定プロセスが開始する前に、カメラはテストされ得、適切な歪補正が決定され得、理想的な「ピンホール」カメラとは異なる光学素子のための画像におけるワーピング(warping)を埋め合わせることができる。また、局所的測位システムは、(飛行機座標などの)望ましい基準座標系に対して較正される。このことは、対象物体に対するカメラ姿勢を提供し、4×4の同次変換行列として表される。
一実施形態による自動化された測定プロセスの主要な要素は、図5及び図5Bで示される。図5Aを参照すると、先ず、局所的測位システムが、上述した方法を使用して、望ましい基準座標系(例えば、飛行機座標系)に対して較正される(ステップ100)。その後、対象物体(例えば、履帯自動車)は、望ましい場所へ向かって移動し、増分動作測定システムが、現在の場所が望ましい場所に十分に近いことを示す場合に、停止する(ステップ102)。その現在の場所に対して、局所的測位システムは、基準座標系内の履帯自動車の位置及び方向を決定する。ステップ104では、局所的測位システムの方向ベクトルが、(パン及びチルト軸を使用して)変化し、全てのアクティブ標的が視野の範囲内にあることを保証する。より具体的には、LPSのパン及びチルト角度は、(対象物体上にパターンで設置された)3つのアクティブ標的マーカーが画素視野内にあるように、カメラが対象物体の中心を狙うように調整される。説明目的で、測定プロセスの以下の更なる説明は、アクティブ標的マーカーがライト(例えば、LED)であると想定する。
全てのアクティブ標的マーカーが画像視野内にあって、画像データを取得するプロセスが開始される。このプロセスは、ライトの起動及び画像の取得を含む。ステップ106では、ライトがオフであり、現在のパン及びチルト角度が記憶される間に、基準画像が取得される。ステップ108では、ライトがオンにされ、(ステップ106で使用されたのと同じパン及びチルト角度を使用して)1以上のインジケータ画像が取得される。代替的に、基準画像は、ライトがオンである間に取得されることができ、インジケータ画像は、ライトがオフである間に取得されることができる。インジケータ画像(又は複数の画像)は、2つの技術のいずれかを使用して取得され得る。1つの技術によれば、ライトは同時に1回サイクルし、対象物体の個別の画像が、各々の状態に対して取得される(すなわち、3つのライトが利用される場合に、対象物体の3つの個別の状態、及び3つの個別の画像が存在する)。別の技術によれば、対象物体は、非対称パターンで配置される1セットのライトが装備され、セット内の全てのライトがオンである間に、単一の画像が取得される。
未だ、図5Aを参照すると、インジケータ画像に対する各々のライトの画素座標は、取得された画像データを処理することによって取得される(ステップ110)。先ず第1に、歪関数補正が、(光学素子についての情報を使用して)各々の画像に適用される。第2に、基準画像とインジケータ画像又は複数の画像との間の差異を表す差異画像を計算する。第3に、差異画像が個別の領域に分割され、それは、サイズ、色、形状、又は他のパラメータをフィルタリングすることを含み得る。画像分割は、特定の特性を有する画素のグループを規定することを意味する。一実施態様によれば、互いに隣り合う(すなわち、隣接する領域の)特定の色及び強度の画素が見つけられる。差異画像は、また、フィルタリングで除去され得る(微妙な端の輪郭などの)幾つかの小さいアーチファクト(artifact)を有する。これは、ぼかしフィルター及び強度閾値フィルターを使用して行うことができる。分割の結果は、図6で概略的に描かれる分割された画像94で示される。3つの円が、図4で描かれた履帯自動車52のLEDライト56a‐cに対応する画像内の分割された領域98a‐cを表す。(単純化のために、図6の分割された領域は円で示されているが、実際は、画像内の分割された領域の幾つか又は全ては、完全な円ではなく、それは、カメラの方向ベクトルがめったにライトの対称軸と完全には位置合わされないからである。)画像が分割された後に、コンピュータは、各々の分割された領域98a‐cに対する重心を計算する。重心は、その領域に対する平均X画素座標及び平均Y画素座標である。これらのX‐Y座標のペアは、画像の重心に対するX‐Y座標のペアからの差異を計算するために使用される。
図5Aを再び参照すると、一旦、各々の分割された領域に対する平均画素座標が計算されてしまうと、画像内の各々のセグメントの重心位置の場所に対するそれぞれのパン及びチルト角度が計算される(ステップ112)。これらは、対象物体の各々のアクティブ標的マーカーに、局所的測位システムのレーザー測距器を方向付ける(すなわち、向ける)ために使用される、パンチルト機構のパン及びチルト角度である。画像の中心に対するLPSのパンチルト角度は、対象物体までの距離と共に、既に既知である(ステップ104から)。アクティブ標的マーカー(すなわち、LED)の各々を狙うように局所的測位システムをガイドするための方法は、画像の中心からの重心の各々に対する画素のオフセット、カメラの現在の視野角度、及び画像の中心における目標までの距離を使用して、オフセットパン及びオフセットチルト角度を計算し、それらは、コンピュータによって局所的測位システムに転送される。コンピュータは、局所的測位システムに、オフセットパン及びオフセットチルト角度を使用して、分割された領域の重心に対応する場所の自動化されたLPS測定を実行するように指示命令する。このことは、レーザー測距器が、今度は、各々のアクティブ標的マーカーに向けられ、各々のアクティブ標的マーカーに対する距離、パン及びチルトデータが測定される(ステップ114)ことを意味する。
今度は図5Bを参照すると、測定された距離、パン及びチルトデータに基づいて、(基準座標フレーム内の)アクティブ標的マーカーのデカルト座標が計算される(ステップ116)。その後、アクティブ標的マーカーの中心の座標の間の相対的な距離が計算され、それらの比率が既知のパターンの対応する比率と比較され、各々の点に対するそれぞれの指数を決定する(ステップ118)。次々にライトがオンにされていた間に個別の画像が取得された場合に、画像のセグメントは、画像順序(image order)を使用して番号が付けられる。代替的に、全てのライトが同時にオンであった間に単一の画像が取得された場合に、測定された点の間の距離ベクトルは、各々の測定された点に対するデカルト座標を使用して計算され、対象物体上の光の位置の既知のパターン内の点と比較される。
番号を付けるステップよりも前に、局所的測位システムは、対象物体上の3つの既知の点を測定し、基準座標系内で規定されるデカルト(X、Y、Z)座標へそれらを変換する。それらの基準位置との比較にこれらの点を使用するために、測定された点の各々は、パターンに対する適切な基準点と関連付けられなくてはならない。しかし、点が測定された順序は、ある時と別の時で異なり得、LPSカメラに対する履帯自動車の方向に応じる。この潜在的な対応のミスマッチに対処するために、測定された点は、基準点のシークエンスとマッチするように再順序付けされる。これは、測定された点の相対的な距離(ベクトル長さ)の比率を、基準点の相対的な距離の比率と比較することによって行われる。測定された点は、その後、基準点の順序とマッチするように、再順序付けされる(すなわち、配列の順番が変化する)。
一旦、再順序付けが完了すると、対象物体の現在の位置及び方向を表す4×4の同次変換行列が、既知の初期的な点のパターンと測定された点のパターンとの間の差異に基づいて計算される(ステップ120)。このプロセスは、付録で詳細に説明される。
未だ図5Bを参照すると、ステップ120で計算された変換行列は、計算された場所をロボット制御座標に変換するために適用される(ステップ122)。ステップ120で計算された変換行列は、基準座標系に関して規定されるが、履帯自動車の動作経路は、基準座標系の原点と同じではない初期的な開始点に関して規定され得る。そうである場合に、そのとき、基準座標系に対する初期的な場所を表す変換行列の逆行列は、ステップ120で計算された変換をプレマルチプル(pre‐multipe)し、それは、基準座標系に対する対象物体の現在の場所を規定する。結果は、初期的な場所に対する現在の場所を表す変換である。この計算は、以下の数式で示される。すなわち、
Figure 0006426725
ここで、Tは4×4の同次変換行列を表し、R、I、及びCの下付き/上付き文字は、基準、初期、現在の場所をそれぞれ表す。
対象物体の現在の位置及び方向を表すデータは、その後、表示又はデータを使用し得る他の処理のために送られる(ステップ124)。
図5A及び図5Bで提示されたフローチャートは、ライトが対象物体上で非対称なパターンにありインジケータ画像のために同時に起動される場合のための上述の方法を説明している。
図5Aのステップ104では、カメラを対象物体に向けるために局所的測位システムの方向ベクトルを変えるためのプロセスは、マーカーの全てが画像フレームの範囲のちょうど内側にあることを確実にするために、LPSパンチルト機構のパン及びチルト角度を決定すること、及び適切なカメラ視野(ズーム値)を設定することを含む。このことは、オペレーターに、パン、チルト、ズームの制御を調整させ、LPSカメラの視野内にインジケータライトを収める(frame)ことによって、相互に実行されることができる。代替的に、自動化された探索及びフレームプロセスは、ループの外で相互に実行されるステップを行うためにシステムによって実行されることができる。この自動化されたプロセスは、図14A‐Cで示され、次に説明される。図14Aで見られるように、プロセスは、広い視野角度(θ)を設定すること、及び一方ではマーカーパターンのインジケータライトがオフの1つの画像を、他方ではインジケータライトがオンの1つの画像を取得することによって開始される。差異画像は、インジケータライトがカメラの現在の視野内にあるか否かを決定するように計算され、インジケータライトが見つからない場合には、LPS目標方向は(図示せぬ)パンチルト機構を使用して変化され、ワークピース内の別の領域を見るようにカメラ40を回転させ、ここで、新しい視野領域は、部分的に、(図14Bで示される)以前の視野領域に重なり得、その後、環境の2つの画像が前と同じようにインジケータライトがサイクルされる(cycled)間に取得される。インジケータライトの目標方向の回転及びサイクリングを含んだこの探索プロセスは、マーカーパターンが環境内に配置されるまで継続する。(図14Cで示される)最後のステップは、目標方向をライトの範囲の間の中心に置き、その後、カメラの視野(θ)を狭くしてライトの全てを収める。
対象物体の動作がコンピュータによって制御可能である場合に、その後、以下の付加的なステップが実行され得る。すなわち、(1)対象物体の現在の場所に対して必要とされる補正動作を計算するステップ、(2)対象物体の動作を制御する搭載型のプロセッサ又は複数のプロセッサに対する場所における望ましい変化を表すデータを送るステップ、(3)補正された場所に向かって移動する際に、対象物体の増分動作を追跡するステップ、及び(4)増分動作測定システムが、対象物体が補正された場所に到達したことを示した後に、対象物体が停止し、その後、対象物体の新しい現在の場所及び補正された場所が構成可能な許容範囲内にあることを確認するために、絶対測定プロセスが再び実行され得る。
図7は、単一のコンピュータ48が複数のプロセスを実行するシステム構成を示すブロック図である。(代替的に、各々プロセスは、個別のコンピュータ又はプロセッサで実行され得る。)単一のコンピュータ48は、実行されたときに、コンピュータがLPSコントローラ26として動作することを可能にするLPS制御ソフトウェア、画像処理ソフトウェア28、及び実行されたときにコンピュータが履帯コントローラ32として動作することを可能にする履帯制御ソフトウェアがプログラムされる。システムオペレーターは、コンピュータのキーボード、又は他のユーザインターフェースハードウェア36(例えば、ゲームパッド)によって、コンピュータ48と相互作用する。
LPSコントローラ26は、レーザー測距器、ビデオカメラ、及びパンチルト機構を含んだ、LPSハードウェア22の動作を制御する。図7の破線の矢印は、履帯自動車のアクティブ標的マーカーによって生成され、(画像取得ステップの間に)ビデオカメラによって見られるライトを表し、測定プロセスの間にLPSハードウェア22のレーザー測距器へ向かう、目標から反射されたレーザービームも同様である。
画像処理ソフトウェア28は、図5Aで示されたステップ110の実行に含まれる動作、すなわち、歪機能補正、画像差分、画像分割、及び各々の画像セグメントの重心の画素座標を計算することを実行する。システムは、更に、取得された画像を表示するための表示モニター34を備える。
履帯コントローラ32は、インジケータライトの起動、メカナムホイールの1つのセットの回転を駆動するステッピングモーターの制御、及び吸引装置の制御を含んだ、履帯自動車10の動作を制御する。履帯自動車は、更に、図1を参照して以前に説明されたように、全方向車輪の1セット、及び車輪回転エンコーダの対応するセットを備え得る。エンコーダカウントを表すエンコーダパルスは、車輪回転エンコーダから、電気ケーブルを介して履帯電子システム16のデータ取得装置18に送られる。履帯自動車10は、同じ電気ケーブルを介して、履帯電子システム16の電源20から電力を受信する。
履帯自動車10が移動している間に、データ取得装置18は、エンコーダカウントを受信し、それらを、コンピュータ48が受け入れ可能なフォーマットを有する信号へ変換する。エンコーダカウントデータに基づいて、履帯コントローラ32は、絶対角度θ、及び各々の更新ステップにおける履帯自動車10の相対位置の変化ΔP及びΔPを計算し、その後、絶対角度及び相対位置における変化を使用して、履帯自動車上の1つの点の絶対位置P及びPを計算する。その後、θ、ΔP及びΔPを使用して、米国特許出願番号13/796,584で開示された回転行列を使用して、絶対位置が計算され得る。
履帯コントローラ32が、エンコーダカウントが、履帯自動車10がその目標の場所に到達したことを示すと決定した場合に、履帯コントローラ32は、履帯自動車10に停止するように指示命令する(図5Aのステップ102)。その後、LPSコントローラ26は、LPSハードウェア22に、ビデオカメラが対象物体を狙うようにパン及びチルト角度を調整するように指示命令し(図5Aのステップ104)、その後、基準画像を取得するように指示命令する(図5Aのステップ106)。履帯コントローラ32は、その後、履帯自動車10に搭載されたライトを起動し、その後、LPSコントローラ26が、LPSハードウェア22にインジケータ画像を取得させるように指示命令する(図5Aのステップ108)。コンピュータは、その後、インジケータ画像内のライトの画素座標を計算する画像処理ルーチンを実行する(図5Aのステップ110)。LPSコントローラ26は、その後、画像内の各々のセグメントの重心位置の場所に対するそれぞれのパン及びチルト角度を計算し(図5Aのステップ112)、各々のアクティブ標的マーカーに対する距離、パン、及びチルトデータを取得し(図5Aのステップ114)、かつ各々の測定された点に対するデカルト座標を計算する(図5Bのステップ116)。図5Bで示されたステップ118、120、及び122を実行するためのルーチンは、LPS制御ソフトウェア、画像処理ソフトウェア、又は個別のソフトウェアモジュールの一部であり得る。
最初にLPSビデオカメラを対象物体に向けることは、増分車輪エンコーダデータを含んだ場所特定プロセスによって提供された履帯自動車の推定された場所についての情報を使用して実行されることができる。画像処理及び測定が実際の場所を決定するので、この狙う方向は近似的であっても差し支えない。初期的な推定された場所が、アクティブ標的マーカーの全体のセットを含んだカメラ視野を提供しない場合に、カメラ視野における調整は、図14A‐Cを参照して説明されたセンタリングプロセス及びフレーミングプロセスに類似して、全てのアクティブ標的マーカーが見えるように、視野の再センタリングと共に行われ得る(例えば、ズームレベルを広げる)。
上述された技術は、また、ワークピース(本明細書中で、以後、「部品」)に対するロボットアームの位置及び方向を決定するために使用され得る。図8で示されるように、局所的測位システムが、部品90と、その遠位端部上のエンドエフェクタ88を運び得るロボットアーム86のベース84との間の相対的なオフセットを決定するために使用され得る。ロボットコントローラ80は、ロボットアーム86を制御し、部品90の機械研削作業を実行するためにエンドエフェクタ88を動作させる。
基本的なプロセスのシークエンスは以下の通りである。すなわち、(1)局所的測位システムは、部品の3つの既知の点92a‐cを測定することによって、部品90の座標系に対して較正を行う。(2)局所的測位システムは、ロボットベース84の3つの既知の点94a‐cを測定する。(3)コンピュータ48で実行されるLPS制御ソフトウェアは、部品90の座標系に対するロボットベース84の場所を計算する。(4)コンピュータ48は、場所データをロボットコントローラ80に送る。
コンピュータ48のLPS制御ソフトウェアは、X、Y、及びZの値として点データを出力するが、制御アプリケーションは、部品の位置及び方向を提供するために、X、Y、及びZデータだけではないそれ以上の点を必要とする。位置及び方向の問題を解くために、3つの測定された点92a‐c及び3つの点の既知の寸法からのX、Y、及びZデータが使用されて、完全な6次元の自由度の位置及び方向の表現を計算する。これは、以前に説明された場所特定ソフトウェアが行うものである。場所特定ソフトウェアが使用する位置及び方法のフォーマットは4×4の変換行列であるが、データを表現するための他の方式が存在する。
上述の場所特定方法は、また、履帯自動車以外のロボットシステムに対するアプリケーションを有する。製造作業のために使用される商業的なロボットアプリケーションは、作業セルの原点に対するロボット及び他の部品の場所を規定するための方法を有する。これは、位置及び方向の両方のオフセット精細(offsett definition)を含む。以下のものなどのような、このオフセット情報を規定するための多くの同等な方法が存在する。すなわち、4×4の変換行列、五列丁+変換(quaternions+translation)、角度‐軸+変換、又はオイラー角+変換である。上述された場所特定プロセスは、修正されて、受け入れ可能ないかなるフォーマットにおいてもロボットコントローラ80に出力することができる。
ソケット接続がコンピュータ48からロボットコントローラ80にデータを移送するために使用され得るが、購入可能なアプリケーションに対しては、あるファイルが同等に上手く働き得る。幾つかのコントローラは、ソケットを介して入ってくるデータを受け入れるAPIを有し得、他のコントローラは、オフセットデータがファイルから読まれることを可能にするのみである。したがって、幾つかの実施形態によれば、ファイル共有アプローチが使用され得る。
(図9で描かれる)手動点測定を使用する1つの例示的な手順は、以下のようなものである。すなわち、(1)部品90の3つの可視基準点92a‐cを取得及び記憶し(ステップ60)、ロボットベース84の可視基準点94a‐cを取得及び記憶し(ステップ68)(ステップ60及び68は、基準点の各々のセットに対して一度に実行される)、(2)部品が望ましい場所にある場合に、局所的測位システムを使用して、部品90の3つの基準点92a‐cの測定値を取得し(ステップ62)(これは、標準LPS較正と同等である)、(3)ロボットベースが望ましい場所にある場合に、局所的測位システムを使用して、ロボットベース84の3つの基準点94a‐cの測定値を取得し(ステップ70)、(4)場所特定プロセス64を使用して、ロボットベース84に対する部品90の位置及び方向のオフセットを計算し、かつ(5)位置及び方向のオフセットデータをロボットコントローラ80に送る(ステップ66)。
自動化された点測定のための例示的な手順は、以下の通りである。すなわち、(1)部品90の3つの可視基準点92a‐c及びロボットベース84の3つの可視基準点94a‐cを取得及び記憶し(これは、基準点の任意のセットに対して一度に行われる)、可視基準点は規定されたLEDの場所にあり、(2)局所的測位システムを使用して、LEDがオンされた部品90のLEDパターンの1つの画像を取得し、LEDがオフされた部品90の別の画像を取得し、(3)局所的測位システムを使用して、部品90の点を自動的に測定して、測定された点を既知の点と比較し、(4)局所的測位システムを使用して、LEDがオンされたロボットベース84のLEDパターンの1つの画像を取得し、LEDがオフされたロボットベース84の別の画像を取得し、(5)局所的測位システムを使用して、ロボットベース84の点を自動的に測定して、測定された点を既知の点と比較し、(6)場所特定プロセスを使用して、ロボットベース84に対する部品90の位置及び方向のオフセットを計算し、かつ(7)位置及び方向のオフセットデータをロボットコントローラ80に送る。
上述の方法は、各々の作業シークエンスの開始において使用され得、ロボットアームのベース及びワークピースの相対的な位置を規定する。ロボットコントローラは、(他のセンサ及び運動学的データを使用して)ロボットベースに対するエンドエフェクタの位置及び方向を計算することができる。基準座標系がワークピースの座標系である場合に、そのとき、図8で示されるシステムは、ワークピース座標系内のロボットアームのベース(及びエンドエフェクタ)の位置を決定することができる。逆に、基準座標系がロボットベースの座標系である場合に、そのとき、システムは、ロボットベース座標系内のワークピースの位置を決定することができる。
要約すると、開示された場所追跡システムは、単一のカメラを使用して、走行距離計測法ベースの追跡に統合されることができ、(測定のシークエンスが位相シフトされる場合に、連続的な方式で)複数の物体を追跡することができる。エンコーダベースの走行距離計測法に統合される場合に、システムは、間欠的な閉塞(intermittent occlusion)を許容することができる。また、システムは、磁場又は鉄鋼材によって影響されない。
場所追跡方法が、様々な実施形態を参照しながら説明されてきたが、当業者は、本明細書の教示の範囲から逸脱することなく様々な変形例が可能であること、及びその要素を同等物に置換することが可能であることを理解するだろう。加えて、多くの変形例は、特許請求の範囲から逸脱することなく、特定の状況に対して本明細書の中の教示を適合するように作られることができる。したがって、特許請求の範囲は、本明細書中で開示された特定の実施形態に限定されるものではないことが意図される。
特許請求の範囲の中で使用されるように、「コンピュータシステム」という用語は、少なくとも1つのコンピュータまたはプロセッサを有するシステムを包含するように広く解釈されるべきであり、かつそれはネットワーク又はバスを介して通信する複数のコンピュータ又はプロセッサを有し得る。前文で使用されるように、「コンピュータ」及び「プロセッサ」という用語の両方は、処理ユニット(例えば、中央処理ユニット)及び処理ユニットによって読まれることができるプログラムを記憶するための何らかの形のメモリ(すなわち、コンピュータ可読媒体)を有する装置に言及する。
本明細書中で使用されるように、「場所」という用語は、固定された3次元座標系内の位置、及び座標系に対する方向を含み、「アクティブ標的マーカー」という用語は、起動されることが可能な標的マーカーを意味する(すなわち、「アクティブ標的マーカー」は、起動された状態と起動されていない状態との間でスイッチされることができる)。
以後に説明される方法クレームは、そこで挙げられているステップが、アルファベット順に(特許請求の範囲の中のアルファベットの順序は、以前に挙げたステップを参照するという目的のためだけに使用されている)、又はそれらが挙げられる順序で実行されることを要求すると解釈されるべきではない。またそれらは、2つ以上のステップのいかなる部分も、同時に、又は入れ替えて実行することを排除すると解釈されるべきでもない。
(付録)
図10は、計器座標システム{A}の原点から、計器の目標点軸に実質的に沿って関心点Pへ延伸する位置ベクトルPを示し、対象物体座標系{B}の原点から、関心点Pへ延伸する位置ベクトルPを示す。
図10を参照すると、計器座標系622における点Pの座標が、パン(すなわち、点Pに対するベクトルPの図10におけるパン角度634)、チルト(点Pに対するベクトルPの図10におけるチルト角度636)、及び距離(図10における点Pに対するベクトルPに沿った距離)の球座標である場合に、計器座標系622における球座標として表される点Pの位置は、計器618の順運動学に対する以下の方程式から、計器座標系622内のX、Y、Zデカルト座標における点Pの位置に関連する。すなわち、
Figure 0006426725
ここで、計器座標系622において、パン(アジマス)はZ軸周りの回転であり、チルト(仰角)はY軸周りの回転である。
計器座標系622におけるデカルト座標(X、Y、Z)として表される点Pの位置は、計器618の逆運動学に対する以下の方程式から、計器座標系622における球座標(パン、チルト、距離)として表される点Pの位置に関連することに留意せよ。すなわち、
Figure 0006426725
一実施態様では、対象物体座標系616内の([X、Y、Z、1]の形における列ベクトルとして表される)位置Pは、方程式から計器座標系622内の(また、[X、Y、Z、1]の形における列ベクトルである)位置Pから計算される。すなわち、
Figure 0006426725
ここで、Tは較正行列である。一実施例では、較正行列は、以下の形を有する4×4の同次変換行列である。すなわち、
Figure 0006426725
計器座標系622における位置Pは、以下の方程式から較正行列の逆行列を使用して、対象物体座標系616における位置Pから計算され得る。すなわち、
Figure 0006426725
変換行列 Tは、以下のように計算される。較正点に対するベクトルの方向及び長さが既知である状況に対して、較正点の最小数は3であり、それらは一直線上にないと想定する。基本的な3つの点の技術は以下の通りである。すなわち、
Figure 0006426725
ここで、図11から図13を参照すると、
A12は、点PA1からPA2へ延伸する、座標系Aにおけるベクトルである。
A13は、点PA1からPA3へ延伸する、座標系Aにおけるベクトルである。
B12は、点PB1からPB2へ延伸する、座標系Aにおけるベクトルである。
B13は、点PB1からPB3へ延伸する、座標系Aにおけるベクトルである。
及びは、ベクトルの外積から生成される法線である。
及びは、回転の軸である。
θ及びθは、それぞれ、軸及び周りの回転角度である。
、R、及びRは、3×3の対称回転行列である。かつ、
(当業者に既知であり、例えば、Prentice Hall Professional Technical Referenceによって2004年の7月に出版された、John J Craigによる「Introduction to Robotics Mechanics and Control」第3版において説明される)f()は、以下で説明される軸‐角度の規定から3×3の回転行列を生成する関数である。すなわち、
Figure 0006426725
方程式(2)の変換行列におけるX、Y、及びZは、初期的な位置から現在の位置への対称物体座標系の原点の位置における差異に基づいて計算される。
4×4の同次較正行列 Tのみが、対象物体に対する指示計器の任意の位置に対して一度計算され、 Tは、その後、座標系A(計器座標系622)からの任意の数のベクトルを座標系B(対象物体座標系616)へ変換するために使用され得ることに留意せよ。逆較正行列 Tが、較正行列 Tの逆行列を計算することによって計算され得、又は方程式内のベクトルの順序をスイッチングすることによって直接的に計算され得ることにもまた留意せよ。

Claims (19)

  1. 対象物体に、既知のパターンで配置された少なくとも3つのアクティブ標的マーカーが装備された場合に、基準座標系内で前記対象物体の現在の場所を決定するための方法であって、
    (a)前記基準座標系に対するカメラの場所を規定するステップ、
    (b)前記カメラが前記対象物体の中心を狙い、前記アクティブ標的マーカーが起動されていない間に、画像を取得するステップ、
    (c)前記カメラが前記対象物体の中心を狙い、前記アクティブ標的マーカーの1以上が起動されている間に、1以上の画像を取得するステップ、
    (d)前記画像を処理して、前記アクティブ標的マーカーの全てが起動されていなかった間に取得された前記画像と、前記アクティブ標的マーカーの1以上が起動されていた間に取得された画像との間の差異を表す差異画像を計算するステップ、
    (e)それぞれのアクティブ標的マーカーに対応する前記差異画像内の前記差異に対するそれぞれの平均画素座標を計算するステップ、
    (f)それぞれのアクティブ標的マーカーに対して、少なくとも、前記対象物体が前記カメラの画像視野内の中心に置かれたときのパン及びチルト角度、及び前記それぞれの平均画素座標と前記画像の中心の画素座標との間の差異の関数であるそれぞれのパン及びチルト角度によって規定された方向に、レーザー測距器を向け、レーザービームを送信するステップ、
    (g)それぞれのアクティブ標的マーカーに対して、それぞれのレーザービームの送信に後続してそれぞれの距離、パン及びチルトデータを取得するステップ、
    (h)測定された前記距離、パン及びチルトデータに基づいて、前記基準座標系内の前記アクティブ標的マーカーに対応するそれぞれの点の座標を計算するステップ、並びに
    (i)点の座標が測定されたデータから計算されたところの前記それぞれの点のそれぞれの位置を、前記既知のパターン内に配置されたそれぞれの点のそれぞれの位置と比較して、前記基準座標系に関して規定された前記対象物体の現在の位置及び方向を決定するステップを含む、方法。
  2. ステップ(c)は、少なくとも3つのアクティブ標的マーカーが起動されている間に、1つの画像を取得することを含む、請求項1に記載の方法。
  3. ステップ(c)は、第1、第2、及び第3のアクティブ標的マーカーが次々に起動されている間に、それぞれの画像を取得することを含む、請求項1に記載の方法。
  4. ステップ(d)は、
    前記差異に基づいて前記アクティブ標的マーカーに対応する個別の領域を含むように前記差異画像を分割すること、及び
    前記アクティブ標的マーカーに対応する各々の個別の領域のそれぞれの重心に対する前記差異画像内のそれぞれの平均画素座標を計算することを含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記点の間の相対的な距離に基づいて点パターンを測定すること、及び
    測定された点パターンと既知の点パターンとの間の差異に基づいて、前記基準座標系内の前記対象物体の場所を表す第1の変換行列を計算することを含む、請求項1から4のいずれか一項に記載の方法。
  6. 前記既知の点パターンは、非対称である、請求項5に記載の方法。
  7. 前記対象物体を初期的な場所に配置すること、
    前記基準座標系に対する前記対象物体の前記初期的な場所を表す第2の変換行列を計算すること、
    前記対象物体を前記初期的な場所から現在の場所に移動させること、
    前記第2の変換行列の逆行列を計算すること、及び
    前記第1の変換行列と前記第2の変換行列の前記逆行列との積を計算することを更に含み、前記積は、前記対象物体の前記初期的な場所に対する前記対象物体の前記現在の場所を表す第3の変換行列である、請求項5又は6に記載の方法。
  8. 前記初期的な場所から前記現在の場所への移動の間に、前記対象物体の増分動作に応じてエンコーダパルスを生成することを更に含む、請求項7に記載の方法。
  9. 少なくとも3つのアクティブ標的マーカーが装備された対象物体のための場所追跡システムであって、
    パンチルト機構、
    前記パンチルト機構に設置されたカメラ及びレーザー測距器、並びに
    前記カメラ、前記レーザー測距器、及び前記パンチルト機構を制御するためのコンピュータシステムであって、前記パンチルト機構に前記カメラを前記対象物体に向けさせるように指示命令し、前記カメラに前記対象物体の画像を取得させるように指示命令し、前記カメラによって取得された画像を処理して、前記アクティブ標的マーカーが起動されていなかった間に取得された画像と、1つ以上の前記アクティブ標的マーカーが起動されていた間に取得された各々の画像との間の差異を表す差異画像を計算し
    前記少なくとも3つのアクティブ標的マーカーの状態を制御するために、前記対象物体の動作と前記少なくとも3つのアクティブ標的マーカーの状態とを制御する、コンピュータシステムを備える、場所追跡システム。
  10. 前記対象物体は、履帯自動車を含む、請求項9に記載のシステム。
  11. 前記履帯自動車は、ホロノミックな動作の履帯自動車である、請求項1に記載のシステム。
  12. 前記履帯自動車の増分動作を追跡するための手段を更に備える、請求項1に記載のシステム。
  13. 前記対象物体は、ロボットアームのベースを備える、請求項9に記載のシステム。
  14. パンチルト機構、
    前記パンチルト機構に設置されたカメラ及びレーザー測距器、
    既知のパターンで配置された少なくとも3つのアクティブ標的マーカーが装備された対象物体、及び
    コンピュータシステムであって、
    前記パンチルト機構のパン及びチルト角度を調整して、前記カメラが、前記カメラの画像視野内で前記アクティブ標的マーカーを有する前記対象物体の中心を狙うようにする動作、
    前記カメラが前記対象物体の中心を狙い、かつ前記アクティブ標的マーカーが起動されていない間に、画像を取得するように前記カメラに指示命令する動作、
    前記カメラが前記対象物体の中心を狙い、かつ前記アクティブ標的マーカーの1以上が起動されている間に、1以上の画像を取得するように前記カメラに指示命令する動作、
    前記画像を処理して、前記アクティブ標的マーカーの全てが起動されていなかった間に取得された画像と、前記アクティブ標的マーカーの1以上が起動されていた間に取得されたそれぞれの画像との間の差異を表す差異画像を計算する動作、
    それぞれのアクティブ標的マーカーに対応する前記差異画像内の前記差異に対するそれぞれの平均画素座標を計算する動作、
    それぞれのアクティブ標的マーカーに対して、少なくとも、前記対象物体が前記カメラの画像視野内の中心に置かれたときのパン及びチルト角度、及び前記それぞれの平均画素座標とインジケータ画像の中心の画素座標との間の差異の関数であるそれぞれのパン及びチルト角度において向けられた、それぞれのレーザービームを送信させるように前記レーザー測距器に指示命令する動作、
    それぞれのアクティブ標的マーカーに対して、それぞれのレーザービームの送信に後続してそれぞれのパンチルトデータを取得させるように前記パンチルト機構に指示命令し、それぞれのレーザービームの送信に後続してそれぞれの距離データを取得させるように前記レーザー測距器に指示命令する動作、及び
    測定された距離、パン及びチルトデータに基づいて、基準座標系内の前記アクティブ標的マーカーに対応するそれぞれの点の座標を計算する動作、並びに
    点の座標が測定されたデータから計算されたところの前記それぞれの点のそれぞれの位置を、前記既知のパターン内に配置されたそれぞれの点のそれぞれの位置と比較して、前記基準座標系に関して規定された前記対象物体の現在の位置及び方向を決定する動作を実行するようにプログラムされた、コンピュータシステムを備える、場所追跡システム。
  15. 前記アクティブ標的マーカーは、発光ダイオードである、請求項14に記載のシステム。
  16. 前記コンピュータシステムは、
    前記点の間の相対的な距離に基づいて点パターンを測定する動作、及び
    前記測定された点パターンと既知の点パターンとの間の差異に基づいて、前記基準座標系内の前記対象物体の場所を表す第1の変換行列を計算する動作を実行するように更にプログラムされている、請求項1又は1に記載のシステム。
  17. 前記対象物体は、履帯自動車を含む、請求項1から16のいずれか一項に記載のシステム。
  18. 前記履帯自動車は、ホロノミックな動作の履帯自動車であり、前記システムは、前記履帯自動車の増分動作を追跡するための手段を更に備える、請求項1に記載のシステム。
  19. 前記対象物体は、ロボットアームのベースを備える、請求項1から1のいずれか一項に記載のシステム。









JP2016521401A 2013-06-19 2014-04-01 移動可能な対象物体の場所を追跡するためのシステム及び方法 Active JP6426725B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/921,246 US9043146B2 (en) 2013-06-19 2013-06-19 Systems and methods for tracking location of movable target object
US13/921,246 2013-06-19
PCT/US2014/032503 WO2014204548A1 (en) 2013-06-19 2014-04-01 Systems and methods for tracking location of movable target object

Publications (2)

Publication Number Publication Date
JP2016526673A JP2016526673A (ja) 2016-09-05
JP6426725B2 true JP6426725B2 (ja) 2018-11-28

Family

ID=50640019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016521401A Active JP6426725B2 (ja) 2013-06-19 2014-04-01 移動可能な対象物体の場所を追跡するためのシステム及び方法

Country Status (8)

Country Link
US (2) US9043146B2 (ja)
EP (2) EP3011362B1 (ja)
JP (1) JP6426725B2 (ja)
KR (1) KR101988083B1 (ja)
CN (1) CN105518486B (ja)
BR (1) BR112015031505B1 (ja)
RU (1) RU2664257C2 (ja)
WO (1) WO2014204548A1 (ja)

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9279679B2 (en) * 2012-09-12 2016-03-08 Kabushiki Kaisha Topcon Construction machine control method and construction machine control system
US9404898B1 (en) * 2013-03-15 2016-08-02 The Boeing Company Laser ultrasound testing in limited-access areas
US9410659B2 (en) 2014-02-10 2016-08-09 The Boeing Company Automated mobile boom system for crawling robots
US10310054B2 (en) 2014-03-21 2019-06-04 The Boeing Company Relative object localization process for local positioning system
US11126193B2 (en) * 2014-06-19 2021-09-21 Husqvarna Ab Automatic beacon position determination
US9746447B2 (en) 2014-10-30 2017-08-29 The Boeing Company Apparatuses, systems, and methods for inspecting a component
US9664652B2 (en) 2014-10-30 2017-05-30 The Boeing Company Non-destructive ultrasonic inspection apparatus, systems, and methods
US9740191B2 (en) 2015-02-12 2017-08-22 The Boeing Company Location calibration for automated production manufacturing
EP3064435A1 (en) * 2015-03-03 2016-09-07 Airbus Defence and Space, S.A. Systems and methods for the calculation of relative distances and speeds in the three coordinate axis between aircraft in flight
US9924103B2 (en) 2015-04-09 2018-03-20 The Boeing Company Automated local positioning system calibration using optically readable markers
CN105069795B (zh) * 2015-08-12 2017-12-22 深圳锐取信息技术股份有限公司 运动对象跟踪方法及装置
US10232897B2 (en) 2015-10-16 2019-03-19 The Boeing Company Walking robot
CN105548989B (zh) * 2016-01-05 2018-01-02 西安应用光学研究所 手持式反光电观瞄及目标定位一体化装置
US10145670B2 (en) * 2016-01-12 2018-12-04 The Boeing Company Systems and methods for projected grid-based location tracking
US9892558B2 (en) 2016-02-19 2018-02-13 The Boeing Company Methods for localization using geotagged photographs and three-dimensional visualization
KR20170109330A (ko) * 2016-03-21 2017-09-29 한화테크윈 주식회사 라이다 시스템
US10325339B2 (en) * 2016-04-26 2019-06-18 Qualcomm Incorporated Method and device for capturing image of traffic sign
CN106033615B (zh) * 2016-05-16 2017-09-15 北京旷视科技有限公司 目标对象运动方向检测方法和装置
US11137776B2 (en) * 2016-05-16 2021-10-05 SZ DJI Technology Co., Ltd. Systems and methods for coordinating device actions
BR112019000728B1 (pt) 2016-07-15 2023-03-28 Fastbrick Ip Pty Ltd Veículo que incorpora máquina de assentamento de tijolos
US10607409B2 (en) 2016-07-19 2020-03-31 The Boeing Company Synthetic geotagging for computer-generated images
US10108872B2 (en) * 2016-07-29 2018-10-23 Conduent Business Services, Llc Multi-angle product imaging device
US10242581B2 (en) * 2016-10-11 2019-03-26 Insitu, Inc. Method and apparatus for target relative guidance
US10347109B2 (en) 2016-11-08 2019-07-09 The Boeing Company Automated human personnel fall arresting system and method
US10451714B2 (en) 2016-12-06 2019-10-22 Sony Corporation Optical micromesh for computerized devices
US10536684B2 (en) 2016-12-07 2020-01-14 Sony Corporation Color noise reduction in 3D depth map
US10178370B2 (en) 2016-12-19 2019-01-08 Sony Corporation Using multiple cameras to stitch a consolidated 3D depth map
US10181089B2 (en) * 2016-12-19 2019-01-15 Sony Corporation Using pattern recognition to reduce noise in a 3D map
RU2641604C1 (ru) * 2016-12-28 2018-01-18 Федеральное государственное автономное образовательное учреждение высшего образования "Дальневосточный федеральный университет" (ДВФУ) Способ измерения абсолютного положения конечного звена многозвенного механизма промышленного робота
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
US10495735B2 (en) 2017-02-14 2019-12-03 Sony Corporation Using micro mirrors to improve the field of view of a 3D depth map
US10795022B2 (en) 2017-03-02 2020-10-06 Sony Corporation 3D depth map
JP6774603B2 (ja) * 2017-03-06 2020-10-28 株式会社Jvcケンウッド レーザ光照射検出装置、レーザ光照射検出方法、レーザ光照射検出システム
JP6854164B2 (ja) * 2017-03-22 2021-04-07 株式会社トプコン 測量データ処理装置、測量データ処理方法、測量データ処理システムおよび測量データ処理用プログラム
US10979687B2 (en) 2017-04-03 2021-04-13 Sony Corporation Using super imposition to render a 3D depth map
CN109029391B (zh) * 2017-05-18 2020-09-15 金钱猫科技股份有限公司 基于坐标变换的实物测量方法、系统及装置
US11085611B2 (en) * 2017-06-15 2021-08-10 Board Of Supervisors Of Louisiana State University And Agricultural And Mechanical College Tracking lighting system
US10796477B2 (en) * 2017-06-20 2020-10-06 Edx Technologies, Inc. Methods, devices, and systems for determining field of view and producing augmented reality
CN111095355B (zh) 2017-07-05 2023-10-20 快砖知识产权私人有限公司 实时定位和定向跟踪器
KR102599392B1 (ko) * 2017-07-27 2023-11-06 웨스팅하우스 일렉트릭 컴퍼니 엘엘씨 작업 공간 내에서 원격 조작 차량의 위치를 확인하는 방법 및 이러한 방법을 사용하는 원격 검사 시스템
AU2018317937B2 (en) * 2017-08-17 2023-11-23 Fastbrick Ip Pty Ltd Communication system for an interaction system
CN111226090B (zh) 2017-08-17 2023-05-23 快砖知识产权私人有限公司 具有改进的横滚角测量的激光跟踪器
US10788428B2 (en) * 2017-09-25 2020-09-29 The Boeing Company Positioning system for aerial non-destructive inspection
US10791275B2 (en) * 2017-09-25 2020-09-29 The Boeing Company Methods for measuring and inspecting structures using cable-suspended platforms
CN109557329B (zh) * 2017-09-26 2022-07-19 深圳市新产业生物医学工程股份有限公司 旋转式加样装置及加样方法
EP3673334B1 (en) * 2017-09-30 2023-05-24 Siemens Aktiengesellschaft Method for engineering autonomous system with reusable skills
JP6603289B2 (ja) * 2017-10-27 2019-11-06 ファナック株式会社 ロボット、ロボットシステム、およびロボットの座標系設定方法
US10484667B2 (en) 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
US10818097B2 (en) 2017-12-12 2020-10-27 Disney Enterprises, Inc. Spatial position calculation system for objects in virtual reality or augmented reality environment
CN110579738B (zh) * 2018-06-11 2021-06-25 深圳市优必选科技有限公司 运动目标方向角获取方法及终端设备
EP3581341B1 (de) * 2018-06-13 2020-12-23 Siemens Healthcare GmbH Verfahren zum betreiben eines roboters, datenspeicher mit einem entsprechenden programmcode, roboter und robotersystem
US10800550B2 (en) 2018-06-21 2020-10-13 The Boeing Company Positioning enhancements to localization process for three-dimensional visualization
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
US11007635B2 (en) * 2018-07-25 2021-05-18 The Boeing Company Gravity compensation for self-propelled robotic vehicles crawling on non-level surfaces
US10949980B2 (en) * 2018-10-30 2021-03-16 Alt Llc System and method for reverse optical tracking of a moving object
CN111121619A (zh) * 2018-11-01 2020-05-08 西南科技大学 一种基于激光测距的空间几何自动测量方法
JP7000361B2 (ja) 2019-01-24 2022-01-19 ファナック株式会社 追随ロボットおよび作業ロボットシステム
CN109945782B (zh) * 2019-04-02 2020-12-08 易思维(杭州)科技有限公司 超长白车身关键位置检测方法
CN110068827A (zh) * 2019-04-29 2019-07-30 西北工业大学 一种无人机自主目标测距的方法
RU2714701C1 (ru) * 2019-06-17 2020-02-19 Федеральное государственное унитарное предприятие "Российский федеральный ядерный центр - Всероссийский научно-исследовательский институт технической физики имени академика Е.И. Забабахина" Способ селекции объекта на удаленном фоне оптическими системами с воздушного носителя
US11361869B2 (en) * 2019-08-13 2022-06-14 Westinghouse Electric Company Llc System and method enabling signals from replacement self-powered neutron detectors to be used to generate inputs to legacy software
CN110780325B (zh) * 2019-08-23 2022-07-19 腾讯科技(深圳)有限公司 运动对象的定位方法及装置、电子设备
JP7435998B2 (ja) * 2019-09-17 2024-02-21 日本電気通信システム株式会社 物品位置管理装置、物品、物品位置管理システム、物品位置管理方法及びプログラム
FI20196022A1 (en) * 2019-11-27 2021-05-28 Novatron Oy Method and positioning system for determining the position and orientation of a machine
JP7406902B2 (ja) * 2019-12-10 2023-12-28 キヤノン株式会社 制御装置、制御方法、プログラム、方法及び記憶媒体
US10846880B1 (en) * 2020-01-03 2020-11-24 Altec Industries, Inc. Camera embedded joystick
US11631251B2 (en) * 2020-02-23 2023-04-18 Tfi Digital Media Limited Method and system for jockey and horse recognition and tracking
WO2021217371A1 (zh) * 2020-04-27 2021-11-04 深圳市大疆创新科技有限公司 可移动平台的控制方法和装置
CN111474519A (zh) * 2020-04-28 2020-07-31 广东博智林机器人有限公司 一种定位方法、装置、设备及存储介质
CN111753663B (zh) * 2020-05-25 2023-12-12 上海欧菲智能车联科技有限公司 目标检测方法及装置
CN112116651B (zh) * 2020-08-12 2023-04-07 天津(滨海)人工智能军民融合创新中心 一种基于无人机单目视觉的地面目标定位方法和系统
RU2756437C1 (ru) * 2020-09-03 2021-09-30 Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) Способ и система планирования движения робота-манипулятора путем коррекции опорных траекторий
CN112595231A (zh) * 2020-12-10 2021-04-02 上海镭隆科技发展有限公司 一种基于智能图像识别二维随动系统动态监测装置及方法
CN112822353B (zh) * 2020-12-28 2022-03-01 维沃移动通信有限公司 电子设备及其摄像头模组
CN112991401B (zh) * 2021-01-20 2023-07-14 深兰科技(上海)有限公司 车辆运行轨迹追踪方法、装置、电子设备和存储介质
CN113050108B (zh) * 2021-03-23 2024-01-09 湖南盛鼎科技发展有限责任公司 电子界址视觉测量系统及测量方法
CN113358332B (zh) * 2021-07-15 2022-03-22 中国科学院长春光学精密机械与物理研究所 一种动态成像望远镜性能检测装置及方法
US11502729B1 (en) 2021-08-10 2022-11-15 The Boeing Company Methods for through-structure power and data transfer between mobile robots and sensor nodes
CN114235457B (zh) * 2021-12-20 2024-03-15 浙江谱麦科技有限公司 用于检测机器人力学性能的力加载系统及系统调校方法
US20230241719A1 (en) * 2022-01-31 2023-08-03 Standex International Corporation Techniques for closed-loop control of a laser-engraving process
CN115435764B (zh) * 2022-11-09 2022-12-30 中国空气动力研究与发展中心设备设计与测试技术研究所 一种用于激光跟踪仪靶点扫描的吸盘式行走机器人
CN115861429B (zh) * 2023-02-28 2023-06-16 深圳思谋信息科技有限公司 图像采集设备标定方法、装置、计算机设备和存储介质
CN116931583B (zh) * 2023-09-19 2023-12-19 深圳市普渡科技有限公司 移动对象的确定方法和避让方法、装置、设备及存储介质
CN117516811A (zh) * 2023-10-09 2024-02-06 南京智谱科技有限公司 一种气体泄漏监测系统、方法、装置和巡检装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4424943A (en) * 1981-05-04 1984-01-10 Hughes Aircraft Company Tracking system
US4786167A (en) * 1985-10-03 1988-11-22 Rothbone Richard R Optical navigation system
US5673082A (en) * 1995-04-10 1997-09-30 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Light-directed ranging system implementing single camera system for telerobotics applications
US5974348A (en) * 1996-12-13 1999-10-26 Rocks; James K. System and method for performing mobile robotic work operations
JP3909377B2 (ja) * 1997-02-14 2007-04-25 株式会社安川電機 屋外用距離計測装置
FR2770672B1 (fr) * 1997-11-04 2000-01-21 Inst Nat Rech Inf Automat Procede et dispositif de localisation et de guidage d'un mobile muni d'une camera lineaire
US6198485B1 (en) * 1998-07-29 2001-03-06 Intel Corporation Method and apparatus for three-dimensional input entry
AT412033B (de) * 2000-02-08 2004-08-26 Efkon Entwicklung Forschung & Konstruktion Von Sondermaschinen Gmbh System zum automatischen verrechnen von gebühren
WO2002023122A1 (fr) * 2000-09-11 2002-03-21 Kunikatsu Takase Systeme de detection de la position d'un corps mobile
WO2004059900A2 (en) * 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
US7419140B2 (en) 2005-05-16 2008-09-02 Safeguards Technology Llc Security fence module
GB0513899D0 (en) 2005-07-06 2005-08-10 Airbus Uk Ltd Program-controlled process
JP4799088B2 (ja) * 2005-09-06 2011-10-19 株式会社東芝 遠隔検査における作業位置計測方法およびその装置
US7599789B2 (en) * 2006-05-24 2009-10-06 Raytheon Company Beacon-augmented pose estimation
US7643893B2 (en) 2006-07-24 2010-01-05 The Boeing Company Closed-loop feedback control using motion capture systems
ITFI20060196A1 (it) * 2006-08-04 2008-02-05 Fasep 2000 S R L Metodo e dispositivo per la misura senza contatto dell'allineamento di ruote di autoveicoli
US9176598B2 (en) * 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US8044991B2 (en) * 2007-09-28 2011-10-25 The Boeing Company Local positioning system and method
US7859655B2 (en) * 2007-09-28 2010-12-28 The Boeing Company Method involving a pointing instrument and a target object
CN101970985B (zh) * 2008-02-29 2013-06-12 特林布尔公司 确定觇标相对于带有至少两台相机的测量仪的坐标
JP5157803B2 (ja) * 2008-10-06 2013-03-06 村田機械株式会社 自律移動装置
US8199194B2 (en) 2008-10-07 2012-06-12 The Boeing Company Method and system involving controlling a video camera to track a movable target object
US8279412B2 (en) * 2009-12-17 2012-10-02 The Boeing Company Position and orientation determination using movement data
US8447805B2 (en) * 2011-02-28 2013-05-21 The Boeing Company Distributed operation of a local positioning system
US8738226B2 (en) * 2011-07-18 2014-05-27 The Boeing Company Holonomic motion vehicle for travel on non-level surfaces
US8874371B2 (en) * 2011-08-09 2014-10-28 The Boeing Company Beam directed motion control system
KR101638028B1 (ko) * 2011-09-27 2016-07-11 라이카 게오시스템스 아게 좌표계에서 알려진 타겟 포인트를 마킹하기 위한 측정 시스템 및 방법

Also Published As

Publication number Publication date
RU2015141333A3 (ja) 2018-03-20
US20150207987A1 (en) 2015-07-23
BR112015031505B1 (pt) 2022-02-22
US9043146B2 (en) 2015-05-26
RU2664257C2 (ru) 2018-08-15
EP3011362B1 (en) 2018-10-17
EP3407088A1 (en) 2018-11-28
JP2016526673A (ja) 2016-09-05
US9197810B2 (en) 2015-11-24
EP3011362A1 (en) 2016-04-27
KR101988083B1 (ko) 2019-09-30
BR112015031505A2 (pt) 2017-07-25
CN105518486A (zh) 2016-04-20
KR20160044432A (ko) 2016-04-25
RU2015141333A (ru) 2017-07-24
WO2014204548A1 (en) 2014-12-24
US20140376768A1 (en) 2014-12-25
CN105518486B (zh) 2017-09-19

Similar Documents

Publication Publication Date Title
JP6426725B2 (ja) 移動可能な対象物体の場所を追跡するためのシステム及び方法
KR102532072B1 (ko) 로봇 모션 용 비전 시스템의 자동 핸드-아이 캘리브레이션을 위한 시스템 및 방법
CN110728715B (zh) 一种智能巡检机器人摄像机角度自适应调整方法
US20200078948A1 (en) Robot calibration for ar and digital twin
JP4021413B2 (ja) 計測装置
CN102448679B (zh) 至少一个物体以高精度定位到空间最终位置的方法和系统
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6317618B2 (ja) 情報処理装置およびその方法、計測装置、並びに、作業装置
CN102914293A (zh) 信息处理设备和信息处理方法
CN111801198A (zh) 一种手眼标定方法、系统及计算机存储介质
JP2015136770A (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP6674655B2 (ja) 相対データ較正装置と方法
US11446822B2 (en) Simulation device that simulates operation of robot
WO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2019049467A (ja) 距離計測システムおよび距離計測方法
CN113043332B (zh) 绳驱柔性机器人的臂形测量系统和方法
CN112743548A (zh) 一种统一两种机械臂手眼标定的方法及系统、终端
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
US20220357153A1 (en) Calibration method for computer vision system and three-dimensional reference object for use in same
TW202201946A (zh) 攝影系統及機器人系統
KR20140099622A (ko) 다중 영상을 이용한 원자로 내부 로봇 위치 측정 시스템 및 위치 측정방법
CN111823222A (zh) 单目相机多视场视觉引导装置及引导方法
KR20160007741A (ko) 수술 로봇 조종 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181025

R150 Certificate of patent or registration of utility model

Ref document number: 6426725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250