JPS60217413A - Guiding device - Google Patents

Guiding device

Info

Publication number
JPS60217413A
JPS60217413A JP59072760A JP7276084A JPS60217413A JP S60217413 A JPS60217413 A JP S60217413A JP 59072760 A JP59072760 A JP 59072760A JP 7276084 A JP7276084 A JP 7276084A JP S60217413 A JPS60217413 A JP S60217413A
Authority
JP
Japan
Prior art keywords
pattern
image
moving object
visual
guidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP59072760A
Other languages
Japanese (ja)
Inventor
Koji Kameshima
亀島 鉱二
Yoshiyuki Nakano
善之 中野
Masakatsu Fujie
正克 藤江
Taro Iwamoto
太郎 岩本
Kazuo Honma
本間 和男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP59072760A priority Critical patent/JPS60217413A/en
Publication of JPS60217413A publication Critical patent/JPS60217413A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Abstract

PURPOSE:To realize the inducing of a mobile conductor in complicated environment at a high speed by extracting an observed picture of a TV camera into plural characteristic patterns at the same time at a picture processor and using the pattern recognized best among them as the guiding index. CONSTITUTION:A mobile body position detecting means 3 detects the position in a path of a mobile body 1 based on the information from a gyro scope 1B and a detector 1C. A characteristic estimation pattern under the environment estimated based on the position from the means 3 is stored in a storage means 4. A picture processing means 5 processes the observed picture of a camer into plural characteristic patterns at the same time and extracts the characteristic pattern effective to the collation. A collation means 6 checks the coincidence between the characteristic pattern from the means 5 with the forecast characteristic pattern from the means 4. A visual control means 7 controls the direction of the camera 2 through the result of comparison of the means 6 and extracts the real picture by a storage means 9. An guidance control means 8 compares the setting value of the camera 2 and the control value, outputs an inducing signal to the mobile body 1 so as to guide the mobile body 1.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明はye動コロボットの移動体の誘導装置に関する
DETAILED DESCRIPTION OF THE INVENTION [Field of Application of the Invention] The present invention relates to a guiding device for a moving body of a ye moving corobot.

〔発明の背景〕[Background of the invention]

従来、移動ロボット等の移動体を移動制御する装置は、
環境認識手段と移動体の移動機構制御手段とで構成され
ている。この移動制御装置の一例としては、1983年
2月24日に米国カーネギ−・メロン大学によって発行
された文献rTheS tanfOTd Car t 
and TheCMU ROVeJに開示されている。
Conventionally, devices that control the movement of mobile objects such as mobile robots are
It is composed of environment recognition means and moving body movement mechanism control means. An example of this movement control device is the document published by Carnegie Mellon University in the United States on February 24, 1983.
and TheCMU ROVeJ.

この種の環境認識手段を備える移動体の制御装置におい
ては、環境の認識が完了するまで、移動体は行動および
作業全開始することが不可能であった。このため、環境
認識の都度、移動体は所期の動作を中断する必要があシ
、連続的に移動し作業を実行することが難しかった。
In a control device for a moving object equipped with this type of environment recognition means, it is impossible for the moving object to begin any action or work until recognition of the environment is completed. For this reason, the mobile object has to interrupt its intended operation each time it recognizes the environment, making it difficult to move continuously and perform tasks.

〔発明の目的〕[Purpose of the invention]

本発明の目的は複雑な環境を認識しつつ移動。 The purpose of the present invention is to move while recognizing complex environments.

作業させることができる誘導装置を提供する。。To provide a guiding device that can be operated. .

〔発明の概要〕[Summary of the invention]

本発明の特徴とするところは、移動体を所定の経路に沿
って誘導する装置において、移動体の周囲の実環境・を
観測する視覚手段と、移動体の経路移動を検出する手段
と、移動体の位置情報に関連する予測パターンを記憶す
る手段と、視覚手段からの実画像から観測特徴パターン
を抽出する画像処理手段と、前記経路移動検出手段によ
って記憶装置から得られる予測パターンと画像処理手段
からの観測特徴パターンとを比較して視覚手段の方向を
制御する視覚制御手段と、視覚手段の方向の設定値と制
御値とを比較して移動体にその誘導信号を出力する誘導
制御手段とを備え、環境に対する事前の知識および経験
の蓄積にもとづいて外界の観測結果の予測を行い、この
予測データと現実に入手される観測データとの照合を通
して、複雑な環境中での移動体の誘導体の誘導を高速で
実現し得るようにしたものである。
The present invention is characterized in that a device for guiding a moving object along a predetermined route includes a visual means for observing the real environment around the moving object, a means for detecting the route movement of the moving object, and a device for guiding a moving object along a predetermined route. means for storing a predicted pattern related to body position information; an image processing means for extracting an observed feature pattern from an actual image from a visual means; and a predicted pattern obtained from a storage device by the route movement detecting means and an image processing means. visual control means for controlling the direction of the visual means by comparing observed characteristic patterns from the observation means; and guidance control means for comparing the set value and control value of the direction of the visual means and outputting a guidance signal to the moving body. The system predicts the observation results of the outside world based on accumulated prior knowledge and experience about the environment, and by comparing this predicted data with actually obtained observation data, it is possible to predict the direction of moving objects in complex environments. This makes it possible to achieve high-speed guidance.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明の実施例を図面に参照して説明する0 まず、本発明の詳細な説明に先立って、本発明の詳細な
説明する。本発明の誘導装置は%環境モデル並びに移動
経路に関する情報が既に与えられているとの前提のもと
で、移動体に搭載したカメラ等の視覚手段により撮影し
た画像にもとづいて移動体の位置を推定し、視覚手段の
方向制御信号および移動体の誘導信号を演算するもので
ある。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, prior to a detailed explanation of the present invention, a detailed explanation of the present invention will be given. The guidance device of the present invention determines the position of a moving object based on an image taken by a visual means such as a camera mounted on the moving object, on the premise that the environment model and information regarding the movement route are already given. and calculates the direction control signal for the visual means and the guidance signal for the moving object.

この誘導信号を得るためのアルゴリズムを、さらに詳し
く述べると、第1図に示すように、移動体の走行モータ
の回転量およびステアリング量等にもとづいて、移動体
の現在位置の事前推定値X′−′をめ、ついでこれに対
応する予測画像fpt=環境モデル情報にと予測手段り
とにより予測した恢この予測画像f、と観測画像fmと
の比較を行ってその画像誤差Etをめ、この画像誤差′
Efを交換手段Mにより位置誤差Exに変換し、この位
置誤差E、にもとづいて前記の事前推定値X0を修正し
て位置推定値Xをめている。この位置推定値Xにもとづ
いて視覚手段は所望の方向に変更。
To describe the algorithm for obtaining this guidance signal in more detail, as shown in FIG. 1, the prior estimate of the current position of the moving object −', then compare the predicted image f predicted by the prediction means with the observed image fm based on the corresponding predicted image fpt=environmental model information, and find the image error Et. Image error′
Ef is converted into a position error Ex by the exchange means M, and the previously estimated value X0 is corrected based on this position error E to obtain the position estimate X. Based on this estimated position value X, the visual means changes to the desired direction.

される。前述した視覚手段の現在位置を予め設定された
経路に一致させるための情報は、位置推定ノ残差Exと
してテレビカメラのサンプリング速度は常時入手される
be done. Information for matching the current position of the aforementioned visual means to a preset route is always obtained from the sampling rate of the television camera as the position estimation residual Ex.

本発明においては、前述したテレビカメラの方向制御信
号をめる演算フローにおける位置誤差変換のための予測
面#fpと観測画像fvnとの比較に際して、これらの
画像のパターン間に力学的モデルを導入して得られるダ
イナミックな位置推定手段を用いている。
In the present invention, when comparing the predicted plane #fp and the observed image fvn for position error conversion in the calculation flow for calculating the direction control signal of the television camera described above, a dynamic model is introduced between the patterns of these images. The system uses a dynamic position estimation method obtained by

この位置推定手段は、第2図に示すように、同−空間S
内にパターンAおよびパターンBを配置し、さらにこれ
らのパターンA、Bにそれぞれの操作機構M^r Mn
を設け、操作機構MA r Mnのいずれかもしくは両
者を操作して、パターンA。
This position estimating means, as shown in FIG.
A pattern A and a pattern B are arranged within the interior, and each of the patterns A and B is provided with its own operating mechanism M^r Mn
pattern A by operating one or both of the operating mechanisms MA r Mn.

8間に働く相互作用ψABを減少させるようにパターン
を動作させて、パターンマツチングをダイナミックに実
行する。
Pattern matching is performed dynamically by operating the pattern so as to reduce the interaction ψAB acting between the patterns.

次に上述したパターン間に働く相互作用ΦAnについて
述べる。
Next, the interaction ΦAn acting between the patterns described above will be described.

以下、説明を単純化するために、第2図に示すように、
空間Sを画面とし、パターンA、Bを2値画像とする。
Below, in order to simplify the explanation, as shown in Figure 2,
Let space S be a screen, and patterns A and B be binary images.

ここで、パターンAは観測画像にもとづくパターンとし
、パターンBは環境モデルKによって生成された予測画
像にもとづくパターンとする。いま、パターンAが与え
られたとき、パターンBの位置をパターンAに接近させ
る適応則を見い出す必要がある。この適応則は空間S上
にパターンAにより生成されるポテンシャルφAを導入
することによって得られる。このポテンシャルφAは次
の(1)式によりめることができる。
Here, pattern A is a pattern based on an observed image, and pattern B is a pattern based on a predicted image generated by an environmental model K. Now, when pattern A is given, it is necessary to find an adaptive rule that brings the position of pattern B closer to pattern A. This adaptation law is obtained by introducing a potential φA generated by pattern A onto space S. This potential φA can be determined by the following equation (1).

αφA+XA=0 ・・・・・・・・・・・(1)作用
素である。ただし、σX、σyはポテンシャルφAの空
間的床がりを表わすパラメータでおる。
αφA+XA=0 (1) Operator. However, σX and σy are parameters representing the spatial spread of the potential φA.

また、(1)式において、XA はパターンAを空間S
の部分果合とみなしたときの定義関数である。
In addition, in equation (1), XA converts pattern A into space S
This is the defined function when considered as a partial result of .

次に上述した空間S上のパターンAのポテンシャルφA
場により、パターンBの受ける作用F’Bは、次の(2
)式よりめることができるっここでは説明の便宜上、2
次元子面内でのX軸およびy軸方向への移動のみを対象
としている。
Next, the potential φA of pattern A on space S mentioned above
The effect F'B on pattern B due to the field is as follows (2
) can be obtained from the formula.For convenience of explanation, here, 2
Only movement in the X-axis and y-axis directions within the dimensional plane is targeted.

Fs=fXB−DφAds ・・・・・・・・・・・・
(2)た7’ffL、XB はパターンBを空間Sの部
分集合と同一視したときの定義関数であり、vI′i勾
配作作用素を表している。
Fs=fXB-DφAds ・・・・・・・・・・・・
(2) 7'ffL,XB is a defining function when pattern B is identified with a subset of space S, and represents the vI'i gradient operator.

上述の(1)式および(2)式により、パターンBfK
:パターンAに対して変形させるだめの1n報、すなわ
ち視覚手段の方向情報を得ることができる。しかし、こ
の演算における(1)式においては無限次元の連立方程
式を言んでいるため、つぎの近似式(8)を用いること
がよい。
By the above equations (1) and (2), pattern BfK
: It is possible to obtain 1n information for deforming pattern A, that is, direction information of the visual means. However, since equation (1) in this calculation is an infinite-dimensional simultaneous equation, it is preferable to use the following approximate equation (8).

上記(8)式のポテンシャルφAの解を用いて、パター
ンBkパターンAに移動操作するだめの操作機構MBの
出力UBは、次の(4)式によってめ石ことができる。
Using the solution of the potential φA of the above equation (8), the output UB of the operating mechanism MB for moving the pattern Bk to the pattern A can be determined by the following equation (4).

UB=−/ Xs −DφAd、 ・・・・・・・・・
・・・(4)上記(8)式および(4)式から構成され
るパターンマツチング機構は、画像メモリおよび2柚類
の領域演算装置によりハードウェア化することができる
ものである。
UB=-/Xs-DφAd, ・・・・・・・・・
(4) The pattern matching mechanism composed of the above equations (8) and (4) can be implemented in hardware using an image memory and a similar area calculation device.

以上述べた本発明の原理にもとづいて、本発明の誘導装
置の実施例を、第3図を参照して説明する。この図にお
いて、本発明の誘導装置によって誘導される移動体1は
例えば車輪、無限軌道等の走行部IAを備え、操向装置
(図示せず)によって所望の方向に移動することができ
る。この移動体1は自己の位置を予測するだめの情報を
提供する方位検出用のジャイロスコープlBおよヒ走行
部IAの回転量検出用の検出器ICi備えている。
Based on the principle of the present invention described above, an embodiment of the guiding device of the present invention will be described with reference to FIG. In this figure, a moving body 1 guided by the guidance device of the present invention is equipped with a running section IA such as wheels, endless tracks, etc., and can be moved in a desired direction by a steering device (not shown). The moving object 1 is equipped with a gyroscope IB for detecting the orientation and a detector ICi for detecting the amount of rotation of the moving part IA, which provides information necessary for predicting its own position.

また、移動体1はその前方の状況を画像情報として取り
込むテレビカメラ2を備えている。このテレビカメラ2
はその方向変更手段2Ai備えている0 このテレビカメラ2の方向制御し、移動体1を誘導する
本発明の誘導装置は、ジャイロスコープIBおよび検出
器ICからの情報信号にもとづいて移動体1の経路中の
位置を検出する移動体位置検出手段3と、この移動本位
置検出手段3からの移動体の位置にもとづいてその位置
から推定される環境の特徴推定パターン、例えば建屋内
の階段の平行線群、廊下と壁との境界、窓等の線形状の
パターンおよび建屋内径路情報を記憶している記憶手段
4と、テレビカメラ2からの観測画像を同時に複数の特
徴パターンに処理すると共に、照合のために有効な特徴
パターンを抽出する画像処理手段5と、この画像処理手
段5からの有効な観測特徴パターンと前記記憶手段4か
らの予測特徴パターンとの一致性を検討する照合手段6
と、この照合手段6で得られた観測特徴パターンと予測
特徴パターンとの比較により、テレビカメラ2の方向を
制御する信号を演算し、テレビカメラ方向変更手段2A
に出力する視覚制御手段7と、移動体1の誘導制御手段
8とを備えている。前述した視覚制御手段7の方向制御
信号は上述のようにテレビカメラ2を目標経路に清って
移動させる。視覚制御手段7は前述したように予測パタ
ーンと観測パターンとの間に働くポテンシャルφAの場
合を演算スルホテンシャル場演算手段7Aと、このポテ
ンシャルφAの場によって得られる観測パターンの予測
パターンに対する作用力FBの勾配ベクトルを演算する
作用力演算手段7Bとを備えている。
Furthermore, the moving object 1 is equipped with a television camera 2 that captures the situation in front of it as image information. This TV camera 2
The guidance device of the present invention, which controls the direction of the television camera 2 and guides the moving object 1, is equipped with a direction changing means 2Ai. A moving object position detection means 3 detects the position on the route, and an environment feature estimation pattern estimated from the position based on the position of the moving object from this moving object position detection means 3, for example, the parallelism of stairs in a building. A storage means 4 that stores linear patterns such as line groups, boundaries between corridors and walls, windows, etc., and building route information, and observation images from the television camera 2 are simultaneously processed into a plurality of characteristic patterns, an image processing means 5 for extracting an effective feature pattern for matching; and a matching means 6 for examining the match between the observed feature pattern effective from the image processing means 5 and the predicted feature pattern from the storage means 4.
By comparing the observed feature pattern obtained by the matching means 6 with the predicted feature pattern, a signal for controlling the direction of the television camera 2 is calculated, and a signal for controlling the direction of the television camera 2 is calculated.
The vehicle 1 is provided with a visual control means 7 for outputting an output to the vehicle 1, and a guidance control means 8 for the moving body 1. The direction control signal from the visual control means 7 described above causes the television camera 2 to move along the target path as described above. As described above, the visual control means 7 calculates the case of the potential φA acting between the predicted pattern and the observed pattern using the sulhotential field calculation means 7A, and the acting force FB of the observed pattern on the predicted pattern obtained by the field of this potential φA. and an acting force calculation means 7B for calculating the gradient vector of.

これらの演算手段7A、7Bの演算内容は、前述した本
発明の原理によって実行される。
The calculation contents of these calculation means 7A and 7B are executed according to the principle of the present invention described above.

前述した画像処理装置5は、第4図に示すように、入力
画像を書き込む入力画像メモIJ 501と、入力画像
メモリ501への書き込みアドレスを制御するパターン
メモリ502と、処理画像をストアする処理画像メモリ
503と、与えられた画像の画素ごとに各画素の濃淡値
をその近傍の画素の濃淡値にもとづいて修正する修正値
を計算する画像演算器504と、入力画像メモリ501
および処理画像メモリ503の画素の濃淡値の大きい方
の値に対応する語長のデータに対する演算を実行するハ
ードロジック回路505と、入力画像メモリ503、処
理画像メモリ503およびハードロジック回路505の
値全選択的に出力するスイッチ506〜509と、スイ
ッチ506〜508を制御するメモリコントローラ51
1と、メモリコントローラ511、パターンメモリ50
2、ハードロジック回路505、画像演算器504およ
びスイッチ510i制御するコントローラ512とを備
えている。この画像処理装置5は入力画像すなわち観測
画像から同時に複数の観測特徴パターンを抽出するため
に、複数個設置されている。
As shown in FIG. 4, the image processing device 5 described above includes an input image memo IJ 501 for writing input images, a pattern memory 502 for controlling write addresses to the input image memory 501, and a processing image memo IJ for storing processed images. a memory 503 , an image calculator 504 that calculates a correction value for modifying the gray value of each pixel based on the gray value of neighboring pixels for each pixel of a given image; and an input image memory 501
and a hard logic circuit 505 that executes an operation on word length data corresponding to the larger gray value of the pixel in the processed image memory 503; Switches 506 to 509 that selectively output output, and a memory controller 51 that controls the switches 506 to 508.
1, memory controller 511, pattern memory 50
2, a hard logic circuit 505, an image arithmetic unit 504, and a controller 512 that controls the switch 510i. A plurality of image processing devices 5 are installed in order to simultaneously extract a plurality of observed feature patterns from an input image, that is, an observed image.

この画像処理装置5は前述したようにパターンメモリ5
02により入力画像メモリ501の書き込みアドレスを
制御し、入力画像を入力画像メモIJ 501にストア
し得るので、変換演算は不要で1、画像入力信号に対し
てリアルタイムで歪補正、位置向きの変換等を実行する
ことができる。
This image processing device 5 has a pattern memory 5 as described above.
Since the write address of the input image memory 501 can be controlled by 02 and the input image can be stored in the input image memo IJ 501, there is no need for conversion calculations 1, and distortion correction, position and orientation conversion, etc. can be performed on the image input signal in real time. can be executed.

この際、パターンメモリ502の自答はコントローラ5
12によシ変悴設定することができる。−!た、この画
像処理装置5はコントローラ512により操作される画
像演算器504とハードロジック回路505とにより、
前述したポテンシャル場演算手段7Aおよび作用力演算
手段7Bの機能を持つように切換え使用することができ
る。
At this time, the answer in the pattern memory 502 is the controller 5
12 changes can be set. -! In addition, this image processing device 5 includes an image arithmetic unit 504 and a hard logic circuit 505 operated by a controller 512.
It can be switched and used to have the functions of the potential field calculation means 7A and the acting force calculation means 7B described above.

視覚制御手段7は前述したようにテレビカメラ2の方向
を制御すると共に記憶手段9に記憶された実画像を切り
出し制御する。
The visual control means 7 controls the direction of the television camera 2 as described above, and also cuts out and controls the actual image stored in the storage means 9.

また、誘導制御手段8はテレビカメラ2の方向設定値と
制御値とを比較して移動体1にその誘導信号を出力する
。すなわち誘導制御手段8は視覚制御手段の出力所謂テ
レビカメラの移動方向に対して次の表1に示すような移
動体1の誘導操作を行なう。
Further, the guidance control means 8 compares the direction setting value of the television camera 2 with the control value and outputs the guidance signal to the moving object 1. That is, the guidance control means 8 performs the guidance operation of the moving body 1 as shown in Table 1 below with respect to the output of the visual control means, so-called moving direction of the television camera.

表1 次に上述した本発明の誘導装置の実施例によってテレビ
カメラ2の方向を制御し移動体1を誘導゛する動作を説
明する。
Table 1 Next, the operation of controlling the direction of the television camera 2 and guiding the moving object 1 using the above-described embodiment of the guiding device of the present invention will be described.

いま、第3図に示す移動体1はその前方にある階段に向
って移動する場合全設定するっこのとき、テレビカメラ
2はその階段を撮影し、その画像信号fを、画像処理装
置5に出力する。このとき、第5図に示すように画像処
理装置5におけるパターンメモリ502はテレビカメラ
2のレンズの収差補正データを書き込んだ歪パターンメ
モリに設定され、また画像演算器504は水平方向の拡
散に対応した演算パラメータに設定され、さらにハード
ロジック回路505は画素の減算を行なうように制御さ
れる。この設定により、第5図に示すように歪をもった
階段画像Flが入力された場合に、この歪をもった階段
画像Flの情報は歪を除去した階段画像F2の情報とし
て入力画像メモリ501にストアされる。この歪を除去
された階段画像F2はハードロジック回路505および
画像演算器504により、例えば階段のステップに相当
する水平線画像F3に処理される。この水平線画像F3
は処理画像メモリ503にストアされる。
Now, when the moving object 1 shown in FIG. 3 is moving toward the stairs in front of it and all settings are being made, the television camera 2 photographs the stairs and sends the image signal f to the image processing device 5. Output. At this time, as shown in FIG. 5, the pattern memory 502 in the image processing device 5 is set to a distortion pattern memory in which aberration correction data of the lens of the television camera 2 is written, and the image calculator 504 corresponds to horizontal diffusion. The hard logic circuit 505 is further controlled to perform pixel subtraction. With this setting, when a stair image Fl with distortion is input as shown in FIG. Stored in The staircase image F2 from which distortion has been removed is processed by the hard logic circuit 505 and the image arithmetic unit 504 into a horizontal line image F3 corresponding to, for example, steps of the stairs. This horizon image F3
is stored in the processed image memory 503.

このストアされた水平線画像F3の情報は、スイッチ5
08,510によって誘導制御装置7のポテンシャル場
演算手段7Aに出力される。
The information of this stored horizontal line image F3 is stored in the switch 5
08,510, it is output to the potential field calculation means 7A of the guidance control device 7.

このポテンシャル場演算手段7Aは、前述したように第
4図に示す画像処理装置5と同一構成で実行し得えこと
を述べた。このため、第6図はポテンシャル場演算手段
7Aの構成として取扱う0この場合、パターンメモリ5
02は画像処理装置5からの画像情報の特定領域を全画
面に拡大する機能、すなわち切り出し機能全行うように
設定され、また、画像演算器504はその演算パラメー
タを等方性の拡散に設定され、さらに、ハードロジック
回路505は加算モードに設定されている。
As described above, this potential field calculation means 7A can be executed with the same configuration as the image processing device 5 shown in FIG. 4. Therefore, FIG. 6 is treated as the configuration of the potential field calculation means 7A. In this case, the pattern memory 5
02 is set to perform the function of enlarging a specific area of the image information from the image processing device 5 to the full screen, that is, the entire cutting function, and the image calculation unit 504 has its calculation parameter set to isotropic diffusion. , Furthermore, the hard logic circuit 505 is set to addition mode.

この状態において、第5図に示す画像処理装置5からの
水平線画像F3の情報□は切り出し設定されたパターン
メモリ502によって例えば1つの水平線の情報F4の
みが入力画像メモリ501にストアされる。この情報F
4はハードロジック回路505において画像演算器50
4からの等方性の拡散を有する演算信号が加算されて、
認識した情報F4への接近の一つの尺度となるポテンシ
ャル場の情報F5に変換される。このポテンシャル場の
情報F5は処理画像メモリ503にストアされると共に
、スィッチ510全通してこれに接続する作用力演算手
段7Bに出力される。
In this state, the information □ of the horizontal line image F3 from the image processing device 5 shown in FIG. This information F
4 is an image arithmetic unit 50 in a hard logic circuit 505.
Computed signals with isotropic spreading from 4 are added,
It is converted into potential field information F5, which is a measure of the approach to the recognized information F4. This potential field information F5 is stored in the processed image memory 503, and is outputted to the acting force calculation means 7B connected to the switch 510 through the entire switch 510.

この作用力演算手段7Bは前述したポテンシャル場演算
手段7Aと同様に第4図に示す画像処理装置5と同一の
構成で実現することができる。この作用力算手段7Bの
動作を第7図によって説明する。この場合、パターンメ
モリ′502は切シ出し用のパターンメモリに設定され
、また画像演算6504は作用力における勾配計算用の
演算パラメータに設定され、さらにノ・−ドロシック回
路505は積算モードに設定されている。この状態にお
いて、ポテンシャル場演算手段7Aからのポテンシャル
場の情報F5はパターンメモリ502によりその一部の
情報F6のみを抽出されて、入力画像メモリ501にス
トアされる。この情報F6はハードロジック回路505
を通して画像演$6504に加えられる。ここで、この
情報F6は作用力の要素を表わす勾配場の情−4F7に
演算される。この勾配場の情報F7は予め設定したテレ
ビカメラ2の設定方向に対する移動ずれ童を辰わしてい
る。換言するならば、設定移動経路に対してテレビカメ
ラ2の向くべき方向tiゎしている。この勾配場の情報
F7は処理画像メモリ503にストアされると共に、テ
レビカメラ2の方向制御信号としてスイッチ510を通
して第3図に示すテレビカメラ2の方向変更手段2人に
出力される。この制御信号はテレビカメラ2の方向変更
手段2Atl−前述した表1にもとづいて操作する。こ
れにより、テレビカメニア2は所定の経路に旧って方向
が設定され、また移動体1はテレビカメラ2の移動方向
に伴って操舵され目的地に同って#励することができる
。1だ、この制@信号は移動体位置予測手段3からの移
動体の予測位置値に比較され、実環境を走行する際に生
じる種々の誤差、例えばスリップ、路面の凹凸等により
生じる走行”距離誤差、左右のモータのアンバランス、
ジャイロスコープのドリフトに起因するステアリング誤
差等を修正すると共に、走行開始時点での位置並びに方
向誤差を補正している。
This acting force calculation means 7B can be realized with the same configuration as the image processing device 5 shown in FIG. 4, similar to the aforementioned potential field calculation means 7A. The operation of this acting force calculating means 7B will be explained with reference to FIG. In this case, the pattern memory '502 is set as a pattern memory for cutting, the image calculation 6504 is set as a calculation parameter for calculating the gradient in the acting force, and the no-drossic circuit 505 is set in the integration mode. ing. In this state, the pattern memory 502 extracts only part of the information F6 from the potential field information F5 from the potential field calculation means 7A and stores it in the input image memory 501. This information F6 is the hard logic circuit 505
Image performance will be added to $6504 through. Here, this information F6 is calculated into information-4F7 of the gradient field representing the elements of the acting force. This gradient field information F7 shows the movement of the child with respect to the preset direction of the television camera 2. In other words, the direction in which the television camera 2 should face is ti゜ with respect to the set movement route. This gradient field information F7 is stored in the processed image memory 503, and is also output as a direction control signal for the television camera 2 to the two direction changing means of the television camera 2 shown in FIG. 3 through the switch 510. This control signal is operated based on the direction changing means 2Atl of the television camera 2 - Table 1 described above. As a result, the direction of the TV camera 2 is set to a predetermined route, and the moving body 1 is steered in accordance with the direction of movement of the TV camera 2, so that it can be guided to the destination. 1. This control signal is compared with the predicted position value of the moving object from the moving object position predicting means 3, and calculates the distance traveled due to various errors that occur when driving in the actual environment, such as slips and uneven road surfaces. error, imbalance between left and right motors,
In addition to correcting steering errors caused by gyroscope drift, position and direction errors at the start of travel are corrected.

上述した実施例によれば、テレビカメラによって観測し
た観測画像は画像処理装置によって、同時に複数の特徴
パターンに抽出され、その内で最も良好にg識されたパ
ターンを誘導の指標とするので、精度のよい誘導が可能
である。さらに、この観測特徴パターンと予測停機パタ
ーンとの間の偏差を表す情報は、視覚制御装置7によっ
てリアルタイムで検出されるっ なお、上述の実施例においては、誘導性の向上のために
照合手段6によって観測特徴パターンと予測特徴パター
ンとの一致性を行ったが、この照合手段6を用いなくて
も、本願発明は実行可能である。また、テレビカメラ2
として広角画像入力手段を用いることもできる。
According to the above-described embodiment, an observed image observed by a television camera is simultaneously extracted into a plurality of characteristic patterns by an image processing device, and the most well-recognized pattern among them is used as a guidance index, so that accuracy is improved. Good guidance is possible. Further, information representing the deviation between the observed characteristic pattern and the predicted stoppage pattern is detected in real time by the visual control device 7. In the above-described embodiment, the collation means 6 is used to improve guidance. Although the consistency between the observed feature pattern and the predicted feature pattern was determined by the following, the present invention can be carried out without using this matching means 6. Also, TV camera 2
A wide-angle image input means can also be used.

〔発明の効果〕〔Effect of the invention〕

以上詳述したように、本発明によれば、環境の認識と行
動とを同時並行的に実行し得るので、移動体を広範囲の
一般的な環境内で高速で移動および作業させることがで
きる。
As described above in detail, according to the present invention, recognition of the environment and action can be performed simultaneously, so that a mobile object can move and work at high speed in a wide range of general environments.

【図面の簡単な説明】 第1図は本発明の詳細な説明するブロック図、第2図は
本発明の原理の動作を説明する図、第3図は本発明の誘
導装置の一実施例の構成を示す図、第4図は本発明の装
置を構成する画像処理装置の一例の構成を示す図、第5
図はその動作を示す図、第6図は本発明の装置を構成す
るポテンシャル場演算手段の一例の構成を示す図、第7
図は本発明の装置fK:構成する作用力演算手段の一例
の構成を示す図である。 1・・・移動体、IA・・・その走行部、IB・・・ジ
ャイロスコープ、IC・・・検出器、2・・・テレビカ
メラ、2人・・・テレビカメラ2の方向変更手段、3・
・・移動体位置検出手段、4・・・記憶手段、5・・・
画像処理装置、6・・・照合手段、7・・・視覚制御装
置、8・・・移動体1の誘導制御手段。 菫 1 口 第2 図 ′″¥3 図
[BRIEF DESCRIPTION OF THE DRAWINGS] FIG. 1 is a block diagram explaining the present invention in detail, FIG. 2 is a diagram explaining the operation of the principle of the present invention, and FIG. 3 is a diagram showing an embodiment of the guiding device of the present invention. FIG. 4 is a diagram showing the configuration of an example of an image processing device constituting the apparatus of the present invention, and FIG.
6 is a diagram showing the operation of the device, FIG. 6 is a diagram showing the configuration of an example of the potential field calculating means constituting the device of the present invention, and FIG.
The figure is a diagram showing the configuration of an example of the acting force calculation means included in the device fK of the present invention. DESCRIPTION OF SYMBOLS 1... Moving body, IA... Its running part, IB... Gyroscope, IC... Detector, 2... Television camera, 2 people... Direction changing means for television camera 2, 3・
...Moving body position detection means, 4...Storage means, 5...
Image processing device, 6... Verification means, 7... Visual control device, 8... Guidance control means for the moving object 1. Violet 1 mouth 2 figure'''¥3 figure

Claims (1)

【特許請求の範囲】 1、移動体を所定の経路に沿って誘導する装置において
、移動体の周囲の実環境を観測する視覚手段と、移動体
の経路移動を検出する手段と、移動体の位置情報に関連
する予測パターンを記憶する手段と、視覚手段からの実
画像から観測特徴パターンを抽出する画像処理手段と、
前記経路移動検出手段によって記憶装置から得られる予
測パター/と画像処理手段からの観測特徴パターンとを
比較して視覚手段の方向を制御する視覚制御手段と、視
覚手段の方向の設定値と制御値とを比較して移動体にそ
の誘導信号を出力する誘導制御手段とを備えたことを特
徴とする誘導装置。 2、視覚制御手段は予測パターンと観測特徴パターンと
を比較して画像の切り出し位置を決定することを特徴と
する特許請求の範囲第1項記載の誘導装置。
[Claims] 1. A device for guiding a moving object along a predetermined route, which includes: visual means for observing the actual environment around the moving object; means for detecting the route movement of the moving object; means for storing predicted patterns related to position information; image processing means for extracting observed feature patterns from real images from the visual means;
visual control means for controlling the direction of the visual means by comparing the predicted pattern obtained from the storage device by the route movement detecting means and the observed feature pattern from the image processing means, and a set value and a control value for the direction of the visual means. 1. A guidance device comprising: a guidance control means for comparing the guidance signal with the moving object and outputting the guidance signal to the moving object. 2. The guidance device according to claim 1, wherein the visual control means determines the image cutting position by comparing the predicted pattern and the observed characteristic pattern.
JP59072760A 1984-04-13 1984-04-13 Guiding device Pending JPS60217413A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59072760A JPS60217413A (en) 1984-04-13 1984-04-13 Guiding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59072760A JPS60217413A (en) 1984-04-13 1984-04-13 Guiding device

Publications (1)

Publication Number Publication Date
JPS60217413A true JPS60217413A (en) 1985-10-31

Family

ID=13498635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59072760A Pending JPS60217413A (en) 1984-04-13 1984-04-13 Guiding device

Country Status (1)

Country Link
JP (1) JPS60217413A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH023582A (en) * 1988-06-13 1990-01-09 Agency Of Ind Science & Technol Guide of walking leg type movable body
KR100485221B1 (en) * 1997-04-21 2005-07-07 아시스트 신꼬, 인코퍼레이션 Position Correction Device of Work Device and Method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH023582A (en) * 1988-06-13 1990-01-09 Agency Of Ind Science & Technol Guide of walking leg type movable body
KR100485221B1 (en) * 1997-04-21 2005-07-07 아시스트 신꼬, 인코퍼레이션 Position Correction Device of Work Device and Method

Similar Documents

Publication Publication Date Title
JPS6084610A (en) Guiding device
US10466809B2 (en) Camera-assisted motion estimation for application control
KR100801527B1 (en) Mobile robot, and control method and program for the same
CN106934333B (en) Gesture recognition method and system
He et al. Vision-based UAV flight control and obstacle avoidance
CN105931275A (en) Monocular and IMU fused stable motion tracking method and device based on mobile terminal
CN107985313A (en) The changing Lane method based on spring system for autonomous vehicle
KR20150067680A (en) System and method for gesture recognition of vehicle
CN114647248B (en) Robot obstacle avoidance method, electronic device and readable storage medium
KR20210081618A (en) Apparatus for real-time monitoring for construction object and monitoring method and and computer program for the same
JPH03113513A (en) Speed-sensitive steering controller for self-traveling vehicle
CN109204315A (en) Method, apparatus, storage medium and the electronic equipment of changing Lane
Zhang et al. Real-time obstacle detection based on stereo vision for automotive applications
JPS60217413A (en) Guiding device
Sanada et al. Self-localization of an omnidirectional mobile robot based on an optical flow sensor
JPH024951B2 (en)
JPS60217412A (en) Moving controller of mobile robot
JPS6084669A (en) Pattern processor
JP2989617B2 (en) Mobile vehicle environment recognition device
CN113516013A (en) Target detection method and device, electronic equipment, road side equipment and cloud control platform
CN108732925B (en) Intelligent device and advancing control method and device thereof
JPH03238566A (en) Vanishing point detection device
JP2022521881A (en) Systems for obtaining predictions of vehicle actions and corresponding methods
Yamada et al. Vision based obstacle avoidance and target tracking for autonomous mobile robots
EP3796257A1 (en) Estimation device, estimation method, and computer program product