JPS61183715A - 誘導装置 - Google Patents

誘導装置

Info

Publication number
JPS61183715A
JPS61183715A JP60021691A JP2169185A JPS61183715A JP S61183715 A JPS61183715 A JP S61183715A JP 60021691 A JP60021691 A JP 60021691A JP 2169185 A JP2169185 A JP 2169185A JP S61183715 A JPS61183715 A JP S61183715A
Authority
JP
Japan
Prior art keywords
pattern
constituent
guidance
predicted
operating means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60021691A
Other languages
English (en)
Inventor
Koji Kameshima
亀島 鉱二
Yuriko Ogawa
小川 優理子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP60021691A priority Critical patent/JPS61183715A/ja
Publication of JPS61183715A publication Critical patent/JPS61183715A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明はロボット等の移動体のための誘導装置に係り、
特に周囲の状況を理解し、環境に適応して移動体を目的
地まで移動させることができる誘導装置に関する。
〔発明の背景〕
現在、稼動しているロボットの大部分は工場等の整った
環境下で使用されている。しかし、近年では整った環境
以外でも使用できる移動ロボットが要求されている。こ
の要求を実現するためにはロボットに自律移動機能を与
えることが必要である。
このような移動ロボットの例については1983年2月
24日発行のMoravecによるrThe 、2##
≦2Stanford Cart and The C
MU Rover Jと題する文献に開示されている。
この種の移動ロボットはテレビカメラで得られた画像を
処理して、画像の特徴点を抽出し、その配置にもとづい
て方向、距離の3次元的な物体配置を計算し、この結果
にもとづいて物体までの距離を求めた上で移動ロボット
に誘導信号を出力している。このような画像処理では、
特徴点の検出並びに3次元情報の抽出に複雑な計算を要
し、移動体を高速で精度良く移動させることが難しいも
のであった。
〔発明の目的〕
本発明の目的は、移動体の誘導目標となる環境内構酸物
のパターンを選択入力し、画像処理の容易な誘導装置を
提供することにある。
〔発明の概要〕
本発明は、実際の撮影画像から抽出する特徴パターンと
移動体の位置情報に関して予測される環境構成物の予測
パターンとを比較してその差を求め、その差を減少する
ように移動体を誘導制御するものにおいて、誘導目標と
なる環境構成物を操作者によって選択し、この構成物を
誘導目標のための予測パターンとして入力するものであ
る。
これにより、移動体を誘導するための予測パターンと特
徴パターンとの比較がすみやかにかつ正確に行うことが
できるので、移動体を高速で精度よく誘導することがで
きる。
〔発明の実施例〕
以下本発明の実施例を図面を参照して説明する。
第1図は本発明の装置の一実施例を示すもので。
この図において、1は移動ロボットで、この移動ロボッ
ト1は特定の環境領域内を走行するための走行装置IA
を備えている。この移動ロボット1の走行装置IAは移
動制御装置2によって制御されると共にその移動量は移
動量検出器3によって検出される。移動ロボット1には
その周囲環境を撮影するためのテレビカメラ4が設置さ
れている。
このテレビカメラ4によって撮影された画像は表示装置
5に出力されると共にパターン検出器6に出力される。
パターン検出器6は撮影画像の特徴パターンを検出する
。構成記憶器7は所謂フレーム理論にもとづいて環境構
成物を記憶している。
すなわち構成記憶器7は例えば第2図に示す部屋に対し
て第3図に示すようにこの部屋のフレームを記憶してい
る。要素記憶器8は構成記憶器7との関連において、第
3図に示すように部屋のフレームに対して例えば床のフ
レーム、壁のフレーム等の構成要素のフレームを記憶し
ている。前述した構成記憶器7は環境構成物のリストを
表示装置5に出力する。入力装置9は操作者によって選
択入力される。移動体の誘導目標となる環境構成物の情
報を要素記憶器8に出力する。パターン発生器10は移
動量検出器3からの移動ロボットの位置情報にもとづい
て環境領域内における構成物およびその構成要素の情報
を構成記憶器7および要素記憶器8から読み出し、その
予測パターンを求め、その予測パターンを移動制御装置
2に出力する。移動制御装置2はパターン検出器6から
の特徴パターンとパターン発生器10からの予測パター
ンとにより、両パターンのずれを減少するように移動ロ
ボット1の走行装置IAを制御するために、予測パター
ンと特徴パターンとの間に働くポテンシャルφ、の場合
を演算するポテンシャル場演算手段2Aと、このポテン
シャルφ、の場によって得られる特徴パターンの予測パ
ターンに対する作用力F、の勾配ベクトルを演算しこれ
を誘導信号として出力する作用力演算手段2Bとを備え
ている。
次に上述したパターン間に働く相互作用ΦA、について
述べる。
以下、説明を単純化するために、第4図に示すように、
空間Sを画面とし、パターンA、Bを2値画像とする。
ここで、パターンAは観測画像にもとづくパターンとし
、パターンBは環境モデルKによって生成された予測画
像にもとづくパターンとする。いま、パターンAが与え
られたとき、パターンBの位置をパターンAに接近させ
る適応則を見い出す必要がある。この適応則は空間S上
にパターンAにより生成されるポテンシャルφ゛えを導
入することによって得られる。このポテンシャルφ1は
次の(1)式により求めることができる。
αφ、+X、=O・・・(1) 周索である。ただし、σ、、σ、はポテンシャルφ、の
空間的広がりを表わすパラメータである。
また、(1)式において、x、はパターンAを空間Sの
部分集合とみなしたときの定義関数である。
次に上述した空間S上のパターンAのポテンシャルφえ
場により、パターンBの受ける作用F。
は、次の(2)式より求めることができる。ここでは説
明の便宜上、2次元平面内でのX軸およびy軸方向への
移動のみを対象としている。
ただし、XnはパターンBを空間Sの部分集合と同一視
したときの定義関係であり、Dは勾配作分作用素を表し
ている。
上述の(1)式および(2)式により、パターンBをパ
ターンAに対して変形させるための情報、すなわち移動
ロボットの誘導情報を得ることができる。しかし、この
演算における(1)式においては無限次元の連立方程式
を含んでいるため、っぎの近似式(3)を用いることが
よい。
上記(3)式のポテンシャルφ1の解を用いて、パター
ンBをパターンAに移動操作するための操作機構M3の
出力U3は、次の(4)式によって求めることができる
次に上述した本発明の装置の実施例の動作を説明する。
移動ロボット1の誘導開始に先立って、表示装置5には
、テレビカメラ4からの撮影画像と、構成記憶器7から
の構成物のリストとが表示される。
次に、操作者が表示装置5に表示された撮影画像と構成
記憶器7からの構成物のリストとを参照して移動体の誘
導目標となる構造物の情報を、入力装置9によって要素
記憶器8に入力する。これにより、パターン発生器8は
移動ロボット1の位置情報にもとづいて構成記憶器7お
よび要素記憶器8からそれぞれ構成物の配置および形状
データを読み出し、その予測パターンを求める。この予
測パターンは移動制御装置2に入力される。また、この
移動制御装置2にはパターン検出器6からの観測画像の
特徴パターンが入力される。このため、移動制御装置2
は特徴パターンと予測パターンとを比較して移動ロボッ
ト1を誘導するための誘導信号を移動ロボット1の走行
装置IAに出力する。
これにより、移動ロボット1は目標地点に誘導制御され
る。入力装置9によって入力される構成要素の情報は特
徴パターン中のある構成要素とこれに対応する構成要素
の予測パターンとのマツチングを良好にするために入力
される。これにより、特徴パターンと予測パターンとの
照合が適確に行なわれるので、移動ロボット1を高速で
精度良く誘導することができる。
なお上述の例においては移動ロボットを例にとって説明
したが、これに限られるものではない。
〔発明の効果〕
以上述べたように5本発明によれば、撮影画像の特徴パ
ターンと比較される予測パターンを適確に選択入力する
ことができるので、従来のような画像処理のために多大
な時間を要しないものである。このため、移動体を高速
で精度良く誘導することができる。
【図面の簡単な説明】
第1図は本発明の装置の一実施例の構成を示す図、第2
図は本発明の装置によって誘導される移動体の誘導対象
の一例である部屋を示す図、第3図は本発明の装置を構
成する構成記憶器および要素記憶器に記憶された第2図
に示す部屋のフレーム内容を示す説明図、第4図は本発
明の装置を構成する移動制御装置に用いられるパターン
マツチング原理を示す説明図である。 1・・・移動ロボット、2・・・移動制御装置、4・・
・テレビカメラ、5・・・表示装置、6・・・パターン
検出器、7・・・構成記憶器、8・・・要素記憶室、9
・・・入力装置、10・・・パターン発生器。 手続補正書(自発) 1.事件の表示 昭和 60年特許願第 21691  号2発明の名称 誘導装置 &補正をする者 1哨との1鰻 特許出願人 と、  称   15IQ+株式会rヒ  日  立 
製 作 所4、代 理 人 5、補正の対象 明細書の発明の詳細な説明の禰6・ 
補正の内容 別紙のとおり (1)明細書の第2頁第13行〜同頁第14行の文章を
下記の通り補正する。 記 「2月24日発行のモラベック(Moravec )ら
による「ザ スタンフォード カート アンドザ シー
エムニー ローバーJ  (TheStanford 
Cart and The CMU Rover )と
題する文」 以上

Claims (1)

    【特許請求の範囲】
  1. 1、移動体を所定の環境内の経路に沿つて誘導する誘導
    装置において、上記環境内の構成物を記憶した構成記憶
    器と、この構成記憶器内の構成物の幾何学データを記憶
    した要素記憶器と、移動体の位置情報にもとづいてこれ
    に関する構成物の幾何学データを要素記憶器から取込み
    その予測パターンを求めるパターン発生器と、移動体に
    装着したカメラからの画像から特徴パターンを抽出する
    パターン検出器と、予測パターンと特徴パターンとを比
    較しこれらの差が減少するように移動体を制御する制御
    装置と、撮影画像および環境内の構成物を操作者に表示
    する表示装置と、要素記憶器内の構成物の幾何学データ
    をパターン発生器に出力する入力装置とを備えたことを
    特徴とする誘導装置。
JP60021691A 1985-02-08 1985-02-08 誘導装置 Pending JPS61183715A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60021691A JPS61183715A (ja) 1985-02-08 1985-02-08 誘導装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60021691A JPS61183715A (ja) 1985-02-08 1985-02-08 誘導装置

Publications (1)

Publication Number Publication Date
JPS61183715A true JPS61183715A (ja) 1986-08-16

Family

ID=12062091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60021691A Pending JPS61183715A (ja) 1985-02-08 1985-02-08 誘導装置

Country Status (1)

Country Link
JP (1) JPS61183715A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63314614A (ja) * 1987-06-17 1988-12-22 Nissan Motor Co Ltd 自律走行車両制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63314614A (ja) * 1987-06-17 1988-12-22 Nissan Motor Co Ltd 自律走行車両制御装置

Similar Documents

Publication Publication Date Title
JPS61183716A (ja) 誘導装置
EP0139292A2 (en) Navigation apparatus for mobile system
Hu et al. Quaternion‐based visual servo control in the presence of camera calibration error
JPH06131420A (ja) 建設支援装置及び方法
Guo et al. Vision sensor and dual MEMS gyroscope integrated system for attitude determination on moving base
Al-Shanoon et al. Robotic manipulation based on 3-D visual servoing and deep neural networks
Leabourne et al. Station keeping of an ROV using vision technology
Wunsche Detection and control of mobile robot motion by real-time computer vision
Shibata et al. Development and integration of generic components for a teachable vision-based mobile robot
Chen et al. A moving object tracked by a mobile robot with real-time obstacles avoidance capacity
Lorch et al. ViGVVaM—An Emulation Environment for a Vision Guided Virtual Walking Machine
Pérez et al. An assisted re-synchronization method for robotic teleoperated tasks
JPS61183715A (ja) 誘導装置
JP2708032B2 (ja) ロボット教示装置
Gasteratos et al. PRONTO: a system for mobile robot navigation via CAD-model guidance
Schelle et al. Gestural transmission of tasking information to an airborne UAV
Cao et al. Dynamic omnidirectional vision for mobile robots
Dionnet et al. Robust stereo tracking for space applications
JPH03213278A (ja) ロボットの遠隔操作支援方式
JPS63186308A (ja) 移動体の誘導方法、および装置
JPS61183714A (ja) 移動ロボツト
JPS61204712A (ja) 誘導装置
Zhao et al. Multiple cameras visual servoing used for large scale 3D positioning
Wang et al. Robust stabilization of nonholonomic moving robots with uncalibrated visual parameters
Freund et al. Multimedia and virtual reality techniques for the control of ERA, the first free flying robot in space