JP3657854B2 - 遠隔地観測装置 - Google Patents
遠隔地観測装置 Download PDFInfo
- Publication number
- JP3657854B2 JP3657854B2 JP2000137549A JP2000137549A JP3657854B2 JP 3657854 B2 JP3657854 B2 JP 3657854B2 JP 2000137549 A JP2000137549 A JP 2000137549A JP 2000137549 A JP2000137549 A JP 2000137549A JP 3657854 B2 JP3657854 B2 JP 3657854B2
- Authority
- JP
- Japan
- Prior art keywords
- mobile robot
- target
- camera
- point
- camera device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Images
Description
【発明の属する技術分野】
本発明は、作業者が遠隔地の状況を確認、あるいは、遠隔地の機器を操作しながら自分の手元で作業を遂行する必要がある状況下で、作業者の作業を援助する技術に関する。本発明は、ロボット制御の操作手順を簡単化する技術に関する。
【0002】
【従来の技術】
いわゆるロボットのテレオペレーション技術は、遠隔の作業環境内に設置したロボットの遠隔地操作を可能とする。このシステムは、遠隔地の危険な環境下で作業を行う場合には有効な方法であるが、テレオペレーションが、本来、遠隔地の作業のみを前提としているため、例えば、作業者が手元の作業を行いながら、遠隔地の機器などの状態参照や操作を行う作業に対し、そのまま適用することは困難である。
【0003】
【発明が解決しようとする課題】
(a)環境マップ作成が困難
遠隔地の機器などの操作や状態モニタリングを行う手段として、テレオペレーション技術を用いたロボットを用いることが考えられる(例えば、横小路,“マスタ・スレーブ制御の理論”,Vol.11,No.6,pp.794-802,日本ロボット学会誌,1993)。このロボットを所望する場所で作業させるためには、マスタ・スレーブを構成し、マスタであるロボットに具備したセンサ情報を、スレーブ側の作業者に高臨場感技術によって提示し、その提示情報を基にマスタ側を操作することで作業を進める。
【0004】
このマスタ・スレーブによるロボット操作は、作業者がマスタ側のロボットに逐一動作指令を送る必要があり、ロボットの制御を行いながら、作業者が手元の作業を遂行するといった状況は当初より考慮されていないため、作業者の手元の作業遂行を阻害する。そこで、マスタ側のロボットに自律性を持たせ、作業を遂行させる方法が提案されている(佐藤,松井,平井,“人間との協調作業を特徴とする遠隔作業ロボットシステム”,日本ロボット学会誌,Vol.19,No.5,pp.602-613,1991)。
【0005】
この手法は、ロボット周辺の環境の形状などのモデルを、あらかじめ環境モデルに記述する必要がある。この環境モデルの作成には多大な時間がかかり、テレオペレーションのシステムを容易に導入することは困難である。
【0006】
環境内にカメラ装置を分散配置し、個々のカメラ装置の画像に直接作業者が環境モデルや動作を教示し、分散配置したカメラ装置からロボットに情報を提供しながら作業をさせれば、直感的な教示で容易にロボットに作業をさせることができ有効である。環境内に分散させたカメラ画像の視点でロボットを制御する手法は、様々な手法が既に提案されている。それらは1)画像内でのロボットの行動を記述する場合と(例えば,岡田,石黒,石田,“分散視覚を用いた人間ロボット協調ナビゲーション”,日本ロボット学会誌,Vol.16,No.7,pp.985-992,1998)。2)カメラ画像内での目標値を記述する場合がある(例えば,羽田,高瀬,“情報環境情報インフラを用いたロボットナビゲーションの研究”,第17回日本ロボット学会学術講演会,pp.619-620,1998)。
【0007】
前者に関しては、ロボット周辺の実環境を考慮して行動を記述することは困難である。後者に関しては、カメラ座標系からロボット座標系へ写像する必要もある。そこで、実環境を考慮して動作モデルを作成でき、座標変換をしないで、ロボットに作業をさせることができれば有効である。
【0008】
遠隔の状況モニタに限定すれば、ロボットを使う必要はなく、環境内に複数のカメラ装置を固定し、遠隔の状況をモニタすることで実現できる。しかし、それらは、デスクトップで操作することが前提であり、遠隔の状況をモニタしながら、ハンズフリーで作業を行うことには適していない。それら画像をハンズフリーで参照可能であれば便利である。
【0009】
ここで、他の課題は、設置されているカメラ装置は固定されているため、カメラ装置のPTZ自由度、カメラ装置の解像度等により、作業者が所望する映像を全て得られるわけではない点である。そこで、テレオペレーション技術を利用し、固定されたカメラ装置の代わりに、カメラ装置を具備したスレーブロボットによって、固定されたカメラ装置によるモニタができない場合に、固定されたカメラ装置の機能補間として用いられれば有効である。
【0010】
(b)遠隔ロボットと作業者間作業協調のためのシステムモデルが未検討
テレオペレーションの観点からは、遠隔ロボットが作業を行うとともに、作業者が作業を行うことについては検討されていない。装着型パーソナル・コンピュータを用いることで、作業者が手元作業をしながら、遠隔ロボットと協調作業が可能になると期待できるが、まだ十分に検討されていない。
【0011】
このように、従来の技術では遠隔ロボットに遠隔機器操作や機器モニタを行わせつつ、作業者がハンズフリーで様々な場所で作業を行うことができない。
【0012】
本発明は、このような背景に行われたものであって、遠隔地に配置されたロボットが作業者と協調して作業を行うことができる遠隔地観測装置を提供することを目的とする。本発明は、簡単な手順によりロボットの配置された環境モデルおよびロボットの動作モデルを作成することができる遠隔地測定装置を提供することを目的とする。
【0013】
【課題を解決するための手段】
本発明は、観測対象地域内に配置した複数のカメラ装置から得られた定点観測情報と移動するロボットに具備したカメラ装置から得られた移動観測情報とを表示するとともに、これらのカメラ装置およびロボットを制御するMMI(Man Machine Interface)からなる遠隔地観測装置である。
【0014】
本発明は、定点観測結果に対して実環境を考慮してロボットの環境モデルおよび動作モデルを作成し、センサ座標系からロボット座標系への写像なしでロボットを制御できるとともに、作業者が様々な場所においてハンズフリーで作業を行いながら遠隔状況のモニタリングや機器操作を簡易にできることを特徴とする。
【0015】
すなわち、本発明の特徴とするところは、観測対象地域にあらかじめ複数設置された定点カメラ装置と、これら複数の定点カメラ装置に接続された画像処理コンピュータと、カメラを搭載した移動ロボットと、前記定点カメラ装置および移動ロボットに目標観測点情報を与える制御部とを備え、前記移動ロボットと前記画像処理コンピュータと前記制御部とは、無線回線を介して通信を行う手段を備えた遠隔地観測装置であり、前記各定点カメラ装置は、前記制御部から指示された観測すべき目標点の位置を表す目標点位置ベクトルを受信し、該目標点の撮影が不可であった場合には自己のIDおよび観測すべき目標地点の座標を表す目標ベクトルを前記画像処理コンピュータを介して無線回線により前記移動ロボットに送信する手段と、自己の撮影画像に前記移動ロボットが含まれていることを検出すると、自己のIDおよび移動ロボットの位置座標を表す位置ベクトルを前記画像処理コンピュータを介して無線回線により前記移動ロボットに送信する手段と、前記移動ロボットから定点カメラ装置のIDを受信すると、移動ロボットが現在位置から該IDの定点カメラ装置に移動するための行動情報を送信する手段とを含み、前記移動ロボットは、前記定点カメラ装置から受信した目標ベクトル、位置ベクトル、および送信元を示す定点カメラ装置のIDを記憶する手段と、あらかじめ設定された観測対象地域のマップ情報に基づいて受信した位置ベトクルを始点として目標ベクトルを与えた定点カメラ装置に到着するための定点カメラ装置の通過順序を探索する手段と、前記探索された通過順序に基づいて次に通過する定点カメラ装置のIDを送信する手段と、前記定点カメラ装置から受信した行動情報にしたがって移動する手段と、目標点に達したら搭載しているカメラで目標観測地点を撮影しその画像を前記制御部に送信する手段とを備えたところにある。
【0023】
さらに、前記制御部には、前記観測対象地域内の機器を遠隔操作する手段を備えることができる。前記遠隔操作する手段としては、例えばロボットアームのようなものを備えることができる。
【0024】
【発明の実施の形態】
本発明実施例の遠隔地観測装置の構成を図1を参照して説明する。図1は本発明実施例の遠隔地観測装置の全体構成図である。
【0025】
本発明は遠隔地観測装置であって、本発明の特徴とするところは、観測対象地域にあらかじめ複数設置されたCCDカメラを含むカメラ装置10−1、10−2を備えた分散カメラ部10と、移動ロボット11およびカメラ装置12を備えた移動ロボット部13と、分散カメラ部10および移動ロボット部13の観測情報を受信するとともにこれらに制御情報を送信する装着型パーソナル・コンピュータ14とを備えたMMI部15とが設けられ、前記制御情報には、前記観測対象地域内の観測位置指定情報を含み、分散カメラ部10は、この観測位置指定情報により指定された観測位置の観測結果を前記観測情報として送信し、この観測位置の観測が困難であるときには移動ロボット部13にこの観測位置を観測するための行動指令を発し、移動ロボット部13は、この行動指令にしたがって前記観測位置に移動するところにある。
【0026】
分散カメラ部10の各カメラ装置10−1および10−2は、自己の撮影範囲内の移動ロボット部13の有無を検出し、この検出結果にしたがって自己の撮影範囲内に移動ロボット部13が有るときには自己の設置位置情報を画像処理用パーソナル・コンピュータ16を介して無線LANにより送信し、移動ロボット部13は、この設置位置情報を受信し、受信したこの設置位置情報とあらかじめ設定された前記観測対象地域のマップ情報とにしたがって自己の現在位置を認識する。
【0027】
なお、カメラ装置10−1および10−2が移動ロボット部13の有無を検出する手法としては、移動ロボット部13の画像パターンを画像処理用パーソナル・コンピュータ16にあらかじめ記憶させておき、カメラ装置10−1および10−2の撮影画像からこの画像パターンを検出することにより実現できる。
【0028】
移動ロボット部13は、前記行動指令にしたがって現在位置から前記観測位置までに通過するカメラ装置10−1または10−2の順序を前記マップ情報を参照して探索し、この順序にしたがって次に通過するカメラ装置10−1または10−2の識別符号を送信し、分散カメラ部10は、この識別符号を受信すると移動ロボット部13がこの識別符号に該当するカメラ装置10−1または10−2に到達するために必要な経路情報を送信し、移動ロボット部13は、この経路情報にしたがって前記観測位置に移動する。本発明実施例では、経路情報の送信は、識別符号に該当するカメラ装置10−1または10−2が画像処理用パーソナル・コンピュータ16を介して無線LANにより行う。
【0029】
前記経路情報は、前記観測対象地域内に実際に存在する壁または通路を基準に作成される。あるいは、仮想的に前記観測対象地域内に設けられた壁を基準に作成される。
【0030】
また、移動ロボット部13に、いわゆるロボットアームのような装置を備え、前記観測対象地域内の機器を遠隔操作することもできる。
【0031】
以下では、本発明実施例の遠隔地観測装置をさらに詳細に説明する。作業者が手元作業を行いながら、遠隔地の環境状況を確認する作業に対する実施例を記す。図1は本発明に基づく実施例を示したものである。図1では、観測対象地域に分散配置されたカメラ装置10−1および10−2とその画像処理用パーソナル・コンピュータ16、カメラ装置12と超音波センサ17を備えた移動ロボット11、および装着型パーソナル・コンピュータ14からなる。
【0032】
本発明実施例での移動ロボット11は二つの車輪を有し、個々の車輪にはアクチュエータとして独立したモータを有し、回転速度を検出するパルスエンコーダを具備している。この移動ロボット11の各モータには、パルスエンコーダからの値のフィードバックとするモータ回転速度のサーボループがあらかじめ組んである。また、無線LANによる他の機器とのTCP/IP通信機能、ロボット周辺環境を計測する超音波センサ17を具備している。
【0033】
装着型パーソナル・コンピュータ14と画像処理用パーソナル・コンピュータ16は、無線LANによる他の機器とのTCP/IP通信機能を有する。
【0034】
次に、本発明実施例の動作を説明する。図2に、MMI部15、分散カメラ部10および移動ロボット部13の個々の情報処理フローの実施例を示した。以下、図1および図2に基づいて個々の処理フローを記す。
【0035】
1)MMI部
Step1)分散カメラ部10から所望する画像を作業者が選択し、カメラ画像に領域を指定して環境モデルを記述し、その環境モデルに対する行動モデルを指定し、個々のカメラ装置10−1、10−2にTCP/IP通信を介して送信する(図2の▲1▼)。図3〜図6に、個々のカメラ画像に対して教示する環境モデルと行動モデルの例を示す。
【0036】
(カメラID=iに対しての環境モデルと行動モデル例)
Aiは、カメラ画像内における可動領域とそこでの行動を表す。Piは、多角形頂点の位置ベクトルをあらわし、()は、壁を構成する多角形頂点の組み合わせを意味し、FCは実際の通路の中心に沿って移動する通路沿い行動を意味し、FWは実際の壁に沿って移動する壁沿い行動を意味する。
【0037】
C:i行j列は、領域Aiと領域Ajが結合していれば1、結合していなければ0と定義した領域間の結合を表現するマトリクスである。gateij:他のカメラ装置(カメラID=j)と重ね合う領域を多角形頂点の2点で表す。
【0038】
図3に示すようにカメラ装置が▲1▼〜▲3▼に配置された例について説明する。図4はカメラID=1に対する教示の例であり、
【0039】
【数1】
となる。図5はカメラID=2に対する教示の例であり、
【0040】
【数2】
となる。図6はカメラID=3に対する教示の例であり、
【0041】
【数3】
となる。
【0042】
Step2)作業者が参照したいカメラ装置(ID=t)の画像を表示し、そこに目標点をカメラ画像上にポインティングし、目標点位置ベクトルをID=tのカメラ装置へTCP/IP通信を介して送信する。
【0043】
Step3)分散カメラ部10または移動ロボット部13が目標画像を送信してきた場合に、ディスプレイ上に表示する(図2の▲2▼または▲9▼)。
【0044】
2)カメラID=tのカメラ装置
Step1)MMI部15から送信された行動モデルと環境モデルを記憶する(図2の▲1▼)。
【0045】
Step2)MMI部15から送信された目標点位置ベクトルを受信し、このカメラ装置で定めたタスクが実行できれば、タスク終了後、画像をMMI部15へ送信し、実行不可能であれば、移動ロボット部13へカメラID=tと目標値ベクトルを送信する。
【0046】
タスクの例として、例えば、目標位置ベクトルを画像中心に捕えることにした場合には、カメラ装置のパンチルトを動かすことにより画像中心にすることができるかどうか判断し、パンチルトの可動範囲内であれば、パンチルトし、画像をMMI部15に送信する。可動範囲外であれば、移動ロボット部13に送信する(図2の▲2▼)。
【0047】
Step3)あらかじめ与えておいた移動ロボット部13の画像テンプレートを基に、常にカメラ画像内から移動ロボット部13を探索し(図2の▲3▼)、発見した場合に、その座標値とカメラID=tを、移動ロボット部13へTCP/IP通信を介して送信する(図2の▲3▼)。
【0048】
Step4)移動ロボット部13からサブタスクをTCP/IP通信で受信する。このコマンドから得た移動ロボット部13のサブコール(このカメラ視野内での目標値まで移動する)と移動ロボット部13の現在値から、サブタスク(目標値へ移動する)を実現するための各Aiでの行動を算出する。
【0049】
図7にカメラID=1のカメラ装置のカメラ画像内における可動領域とそこでの行動の例を示す。A1は、カメラ画像内における可動領域とそこでの行動を表し、
【0050】
【数4】
となる。
【0051】
ここで、FCは通路中心沿い行動を意味する。また、()は仮想壁を表し、Nullはここで仮想壁がないことを表す。この仮想壁情報は、移動ロボット部13の周辺の実環境に壁がない場合に、目標とするサブタスクを実現するために、仮想的にカメラ視野内で壁を算出し、移動ロボット部13へ壁情報として利用させる目的がある。
【0052】
次に、移動ロボット部13が現在存在する領域に対する行動と、移動ロボット部13に対する仮想壁の位置ベクトルを算出し、移動ロボット部13へ送信する。また、移動ロボット部13が目的地に到着した場合は、以下の行動を移動ロボット部13へ送信する。
【0053】
PutImage:画像を送信させる行動
3)カメラID≠tのカメラ装置
Step1)MMI部15から送信された行動モデルと環境モデルを記憶する(図2の▲1▼)。
【0054】
Step2)移動ロボット部13の画像テンプレートを基に、常にカメラ画像から移動ロボット部13を探索し、発見したときには、移動ロボット部13へその座標値と自分のカメラIDをTCP/IP通信を介して送信する(図2の▲3▼)。
【0055】
Step3)移動ロボット部13からサブタスクをTCP/IP通信で受信する。このコマンドから得た移動ロボット部13のサブコール(カメラID=sg)と移動ロボット部13の現在地から、サブタスク(カメラID=sgへ移動する)を実現するための各Ajでの行動を算出する。
【0056】
図8にカメラID=3のカメラ装置のカメラ画像内における可動領域とそこでの行動の例を示す。ロボットのサブゴール(本来の目的地に向かう過程にある補助的な目的地)ID=2のカメラ装置(sg=2)の場合の各Aiでの行動と仮想壁の例であり、A4、A2、A1は、それぞれカメラ画像内における可動領域とそこでの行動を表し、
【0057】
【数5】
となる。
【0058】
ここで、FCは壁沿い行動を意味し、FWは通路中心沿い行動を意味する。また、()は、仮想壁を表し、Nullは仮想壁がないことを表す。この仮想壁情報は、移動ロボット部13の周辺の実環境に壁がない場合に、目標とするサブタスクを実現するために、仮想的にカメラ視野内で壁を算出し、移動ロボット部13へ壁情報として利用させる目的がある。
【0059】
次に、移動ロボット部13が現在存在する領域に対する行動と、移動ロボット部13に対する仮想壁の位置ベクトルを算出し、移動ロボット部13へ送信する。
【0060】
4)移動ロボット部
Step1)カメラID=tからTCP/IP通信を介してカメラID=tと目標値ベクトルを受信し、各カメラ装置から送信されてくるカメラIDと位置ベクトルを受信し、現在地を記憶する(図2の▲5▼)。
【0061】
Step2)あらかじめ定義されたカメラ装置の配置マトリクスを基に、ID=tのカメラに到達するためのカメラ装置の順序を探索する(図2の▲6▼)。探索に関しては、本実施例では、一般的な横型探索によって、カメラ装置の経路順を算出したA*アルゴリズム等他の探索アルゴリズムを利用しても可能である。
【0062】
Step3)分散カメラ部10にサブタスク(次に到達したいカメラ装置ID)を送信し、そのための行動モデルと仮想壁に対する位置ベクトルを受信し(図2の▲7▼)、受信した行動を、超音波センサ17で環境を計測しながら、車輪を駆動して実行する(図2の▲7▼)。なお、カメラ装置から得た仮想壁の位置ベクトルは、超音波センサ17で算出した壁情報と統合して車輪制御量を決定する。
【0063】
Step4)Step2からStep3を繰り返してカメラID=tの分散カメラの目標値まで移動する。
【0064】
Step5)ID=tのカメラからputImageを受信した場合には、MMI部15に具備しているカメラ画像を送信する(図2の▲9▼)。
【0065】
本発明実施例では、説明をわかりやすくするために、二台のカメラ装置10−1および10−2を設置した例を説明したが、さらに複数のカメラ装置を備えることができる。
【0066】
【発明の効果】
以上説明したように、本発明によれば、遠隔地に配置されたロボットが作業者と協調して作業を行うことができる。また、簡単な手順によりロボットの配置された環境モデルおよびロボットの動作モデルを作成することができる。
【図面の簡単な説明】
【図1】本発明実施例の遠隔地観測装置の全体構成図。
【図2】MMI部、分散カメラ部および移動ロボット部の個々の情報処理フローを示す図。
【図3】環境モデルおよび行動モデルの教示の例におけるカメラ装置の配置例を示す図。
【図4】環境モデルおよび行動モデルの教示の例におけるカメラID=1に対する教示の例を示す図。
【図5】環境モデルおよび行動モデルの教示の例におけるカメラID=2に対する教示の例を示す図。
【図6】環境モデルおよび行動モデルの教示の例におけるカメラID=3に対する教示の例を示す図。
【図7】カメラ画像内における可動領域とそこでの行動の例を示す図。
【図8】カメラ画像内における可動領域とそこでの行動の例を示す図。
【符号の説明】
10 分散カメラ部
10−1、10−2、12 カメラ装置
11 移動ロボット
13 移動ロボット部
14 装着型パーソナル・コンピュータ
15 MMI部
16 画像処理用パーソナル・コンピュータ
17 超音波センサ
Claims (2)
- 観測対象地域にあらかじめ複数設置された定点カメラ装置と、これら複数の定点カメラ装置に接続された画像処理コンピュータと、カメラを搭載した移動ロボットと、前記定点カメラ装置および移動ロボットに目標観測点情報を与える制御部とを備え、
前記移動ロボットと前記画像処理コンピュータと前記制御部とは、無線回線を介して通信を行う手段を備えた遠隔地観測装置であり、
前記各定点カメラ装置は、
前記制御部から指示された観測すべき目標点の位置を表す目標点位置ベクトルを受信し、該目標点の撮影が不可であった場合には自己のIDおよび観測すべき目標地点の座標を表す目標ベクトルを前記画像処理コンピュータを介して無線回線により前記移動ロボットに送信する手段と、
自己の撮影画像に前記移動ロボットが含まれていることを検出すると、自己のIDおよび移動ロボットの位置座標を表す位置ベクトルを前記画像処理コンピュータを介して無線回線により前記移動ロボットに送信する手段と、
前記移動ロボットから定点カメラ装置のIDを受信すると、移動ロボットが現在位置から該IDの定点カメラ装置に移動するための行動情報を送信する手段と
を含み、
前記移動ロボットは、
前記定点カメラ装置から受信した目標ベクトル、位置ベクトル、および送信元を示す定点カメラ装置のIDを記憶する手段と、
あらかじめ設定された観測対象地域のマップ情報に基づいて受信した位置ベトクルを始点として目標ベクトルを与えた定点カメラ装置に到着するための定点カメラ装置の通過順序を探索する手段と、
前記探索された通過順序に基づいて次に通過する定点カメラ装置のIDを送信する手段と、
前記定点カメラ装置から受信した行動情報にしたがって移動する手段と、
目標点に達したら搭載しているカメラで目標観測地点を撮影しその画像を前記制御部に送信する手段と
を備えたことを特徴とする遠隔地観測装置。 - 前記制御部には、前記観測対象地域内の機器を遠隔操作する手段を備える請求項1記載の遠隔観測装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000137549A JP3657854B2 (ja) | 2000-05-10 | 2000-05-10 | 遠隔地観測装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000137549A JP3657854B2 (ja) | 2000-05-10 | 2000-05-10 | 遠隔地観測装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001315080A JP2001315080A (ja) | 2001-11-13 |
JP3657854B2 true JP3657854B2 (ja) | 2005-06-08 |
Family
ID=18645307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000137549A Expired - Fee Related JP3657854B2 (ja) | 2000-05-10 | 2000-05-10 | 遠隔地観測装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3657854B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4676374B2 (ja) * | 2006-05-09 | 2011-04-27 | 日本電信電話株式会社 | 位置算出システム |
CN106066338B (zh) | 2016-08-04 | 2019-03-19 | 同方威视技术股份有限公司 | 自主移动的背散射检测设备和方法及设备的定位方法 |
KR102081093B1 (ko) * | 2018-06-21 | 2020-02-25 | 한국기계연구원 | 모바일 로봇 네비게이션 시스템 |
JP7052652B2 (ja) * | 2018-09-06 | 2022-04-12 | トヨタ自動車株式会社 | 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム |
JP7246211B2 (ja) * | 2019-03-13 | 2023-03-27 | 三菱電機株式会社 | 点検支援システムおよび点検支援方法 |
CN110116410B (zh) * | 2019-05-28 | 2021-03-12 | 中国科学院自动化研究所 | 基于视觉伺服的机械臂目标导引方法 |
KR102339002B1 (ko) * | 2020-07-30 | 2021-12-14 | 네이버랩스 주식회사 | 로봇 관제 방법 및 시스템 |
-
2000
- 2000-05-10 JP JP2000137549A patent/JP3657854B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001315080A (ja) | 2001-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6420229B2 (ja) | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム | |
CN107116565B (zh) | 控制装置、机器人以及机器人系统 | |
CN111055281A (zh) | 一种基于ros的自主移动抓取系统与方法 | |
US20040189675A1 (en) | Augmented reality system and method | |
JP5028568B2 (ja) | ロボット制御システム | |
JP2006113858A (ja) | 移動体の遠隔操作支援方法及びシステム | |
JP6445092B2 (ja) | ロボットの教示のための情報を表示するロボットシステム | |
JP2013132748A (ja) | 移動装置及び移動装置の位置認識方法 | |
JP2020038588A (ja) | 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム | |
WO2021124654A1 (ja) | 作業支援サーバ、作業支援方法および作業支援システム | |
JP3657854B2 (ja) | 遠隔地観測装置 | |
JPH0811071A (ja) | マニピュレータの制御装置 | |
JP2020142326A (ja) | ロボットシステム | |
JP3912584B2 (ja) | 遠隔操作装置 | |
JPH07271434A (ja) | 複数の移動ロボットによる環境地図作成方法 | |
CN110539315B (zh) | 基于虚拟现实控制的建筑机器人 | |
Suthakorn et al. | On the design and development of a rough terrain robot for rescue missions | |
JP5361058B2 (ja) | ロボット遠隔操縦システムとこれに用いる作業ロボット | |
JP2001062766A (ja) | 2足歩行ロボットの遠隔制御用ユーザインターフェイスシステム | |
WO2021153187A1 (ja) | 作業支援サーバおよび作業支援システム | |
KR20190091870A (ko) | 모션센서와 vr을 활용한 로봇 제어 시스템 | |
WO2021106278A1 (ja) | 作業支援サーバ、作業支援方法および作業支援システム | |
JPH03213278A (ja) | ロボットの遠隔操作支援方式 | |
JP7400217B2 (ja) | ロボットシステムおよび可搬型教示装置 | |
JPH0646479A (ja) | 遠隔操作システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050310 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080318 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090318 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090318 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100318 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110318 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110318 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120318 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |