JP2920352B2 - Traveling control method and apparatus for mobile object - Google Patents

Traveling control method and apparatus for mobile object

Info

Publication number
JP2920352B2
JP2920352B2 JP7023205A JP2320595A JP2920352B2 JP 2920352 B2 JP2920352 B2 JP 2920352B2 JP 7023205 A JP7023205 A JP 7023205A JP 2320595 A JP2320595 A JP 2320595A JP 2920352 B2 JP2920352 B2 JP 2920352B2
Authority
JP
Japan
Prior art keywords
axis
landmark
coordinate value
camera
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP7023205A
Other languages
Japanese (ja)
Other versions
JPH08221123A (en
Inventor
泰充 黒崎
裕一 宮本
政已 小林
康生 大築
信尚 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Priority to JP7023205A priority Critical patent/JP2920352B2/en
Publication of JPH08221123A publication Critical patent/JPH08221123A/en
Application granted granted Critical
Publication of JP2920352B2 publication Critical patent/JP2920352B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons

Abstract

PURPOSE: To perform travel control over a teaching type autonomous travel vehicle which is of simple constitution and easily operated. CONSTITUTION: The travel control over the teaching type travel vehicle 1 which uses visual servo is performed. The moving body is provided with one CCD camera 10 so that it can angularly be displaced around a longitudinal axis through a tripod; when teaching, two landmarks 16 and 17 whose positions are unknown are picked up in one visual field while the camera 10 is fixed to the moving body to make a travel along a predetermined course, and the landmarks are stored in a memory. For a playback travel, the land marks 16 and 17 are picked up by the camera 10, the tripod of the camera 10 is brought under angular displacement control, and the direction of the camera 10 is matched with the teaching state. Then steering control is so performed that the position shift from the teaching state becomes zero. This control is repeated to make the travel vehicle 1 gradually return to a taught course and travels along the taught course 18.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画像によってナビゲー
ションを行う移動体の走行制御方法および装置に関し、
特にたとえば走行駆動源を備えた自律走行車、たとえば
自動車など、さらにはそのような走行駆動源を備えてい
ない移動体、ならびに船および飛行機などの移動体を、
教示(ティーチング)した予め定める経路に沿って操舵
しつつ移動する移動体の走行制御方法および装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for controlling the traveling of a moving body which performs navigation by using an image.
In particular, for example, autonomous vehicles equipped with a traveling drive source, such as automobiles, and even moving objects not equipped with such a traveling drive source, and moving objects such as ships and airplanes,
The present invention relates to a traveling control method and apparatus for a moving body that moves while steering along a predetermined path taught (teached).

【0002】[0002]

【従来の技術】無人搬送車や無人点検車などへの適用が
検討されている自律走行車の制御装置において、内界セ
ンサを用いないで視覚センサだけで走行制御を行うビジ
ュアルサーボが注目されている。教示時に走行車に取付
けられた視覚センサであるカメラにより走行環境内に存
在する物体を走行目印すなわちランドマークとして記録
し、走行(プレイバック)時にそれらのランドマークの
撮像画面上での軌跡が予め記録しておいた対応する走行
目印の軌跡に一致するように走行車の走行制御を行うい
わゆる教示形自律走行方式(ティーチング・プレイバッ
ク)が提案されている。
2. Description of the Related Art In a control device of an autonomous traveling vehicle which is being considered to be applied to an automatic guided vehicle or an unmanned inspection vehicle, a visual servo which performs traveling control only by a visual sensor without using an inner field sensor has attracted attention. I have. Objects that exist in the traveling environment are recorded as traveling marks or landmarks by a camera, which is a visual sensor attached to the traveling vehicle at the time of teaching, and the trajectory of these landmarks on the image screen during traveling (playback) is determined in advance. A so-called teaching-type autonomous traveling system (teaching / playback) has been proposed in which traveling of a traveling vehicle is controlled so as to match a locus of a corresponding traveling landmark recorded.

【0003】ビジュアルサーボでは、走行車にカメラな
どの視覚センサを取付け、走行時における視覚センサデ
ータが、目標とする視覚センサデータ(教示データ)に
近づくように走行車を制御する。この手法は、内界セン
サを用いた場合のように走行に伴う自己位置計測誤差が
生じない、予め走行環境に関する地図を作成する必要が
ない、ルックアンドムーブのような他の視覚センサを用
いる方法と比較しカメラのキャリブレーション誤差に影
響されにくい、などの特徴を有する。
[0003] In the visual servo, a visual sensor such as a camera is attached to a traveling vehicle, and the traveling vehicle is controlled so that the visual sensor data during traveling approaches the target visual sensor data (teaching data). This method uses other visual sensors such as look and move, which does not cause a self-position measurement error due to traveling as in the case of using an internal sensor, does not need to create a map relating to the traveling environment in advance. And is less susceptible to camera calibration errors.

【0004】ビジュアルサーボによって教示形自律走行
を行うためには、視覚センサ情報の変化と走行車の位置
姿勢の変化をなんらかの手法で対応づけ、自律走行時は
得られた視覚センサ情報が教示時の視覚センサ情報に近
づくように走行車への入力を決定する。すなわち、ビジ
ュアルサーボによって走行車を制御するためには、視覚
センサデータの変化と走行車の運動の変化の間の関係を
得る必要がある。
In order to perform the teaching-type autonomous traveling by the visual servo, a change in the visual sensor information is associated with a change in the position and orientation of the traveling vehicle by some method, and the obtained visual sensor information during the autonomous traveling is used during the teaching. The input to the traveling vehicle is determined so as to approach the visual sensor information. That is, in order to control the traveling vehicle by the visual servo, it is necessary to obtain a relationship between a change in the visual sensor data and a variation in the motion of the traveling vehicle.

【0005】その対応づけの手法として従来では、たと
えば三河らによる“ビジュアルサーボを用いた自律移動
ロボットの制御”、第11回日本ロボット学会学術講演
会予稿集、pp.1309−1310(1993)に見
られるように、人工的ターゲットマークを用いてその特
徴点位置変化と走行車の位置姿勢変化の関係をターゲッ
トマークの幾何学的関係を用いて記述する手法がある。
Conventionally, as a method of the association, for example, “Control of Autonomous Mobile Robot Using Visual Servo” by Mikawa et al., Proceedings of the 11th Annual Conference of the Robotics Society of Japan, As can be seen from 1309-1310 (1993), there is a method of describing the relationship between the change in the characteristic point position and the change in the position and orientation of the traveling vehicle using an artificial target mark using the geometric relationship of the target mark.

【0006】この先行技術では、人工的なターゲットマ
ークを走行環境内に予め設置しなければならないため走
行のための準備が必要であり、ターゲットマークが存在
しない場所では自律走行が不可能であるから走行経路の
自由度が限定されるという欠点がある。
[0006] In this prior art, an artificial target mark must be set in advance in the traveling environment, so that preparations for traveling are required, and autonomous traveling is impossible in a place where no target mark exists. There is a disadvantage that the degree of freedom of the traveling route is limited.

【0007】他の先行技術は、細田らによる“構造やパ
ラメータに関する知識を用いないビジュアルサーボ系の
構成”、第4回ロボットシンポジウム、pp.37−4
2(1994)であり、この先行技術は、任意の対象の
画像特徴量変化とロボットの状態変化の関係をロボット
に取付けられた内界センサにより推定する手法であり、
ロボットマニピュレータを対象としている。
[0007] Another prior art is "Construction of Visual Servo System without Using Knowledge about Structure and Parameters" by Hosoda et al., The 4th Robot Symposium, pp. 1-35. 37-4
2 (1994), and this prior art is a method of estimating the relationship between a change in the image feature amount of an arbitrary object and a change in the state of the robot by using an internal sensor attached to the robot.
It is intended for robot manipulators.

【0008】この先行技術では、走行車に内界センサを
取付けなければならず、機器の構成複雑になるという欠
点がある。これらは運用手順の簡単さや機器保守の容易
さが要求される産業界への自律走行車の適用の妨げにな
っている。
In this prior art, an internal sensor must be attached to the traveling vehicle, and there is a drawback that the configuration of the equipment becomes complicated. These hinder the application of autonomous vehicles to the industry where simple operation procedures and easy equipment maintenance are required.

【0009】さらに他の先行技術は、柴田らによる“ハ
イパースクーターの研究:運転教示可能な自律移動ロボ
ット”、第11回日本ロボット学会学術講演会予稿集、
pp.1301−1304(1993)に開示されてお
り、これは、任意の対象の画像上位置変化と走行車の位
置姿勢変化の関係をオペレータが指示する手法である。
Still another prior art is “Study of hyper scooter: autonomous mobile robot capable of teaching driving” by Shibata et al., Proceedings of the 11th Annual Conference of the Robotics Society of Japan,
pp. 1301-1304 (1993), which is a technique in which an operator indicates a relationship between a change in position of an arbitrary target on an image and a change in position and orientation of a traveling vehicle.

【0010】この先行技術では、自律走行車の運用に際
して、自律走行制御に関する知識を持ち合わせているオ
ペレータが必要であるという欠点がある。したがって、
自律走行させる際にオペレータのマニュアルによる指示
が必要であるため、教示作業手順が複雑になる。
[0010] This prior art has a drawback that, when operating an autonomous vehicle, an operator having knowledge of autonomous driving control is required. Therefore,
The teaching operation procedure is complicated because the manual operation of the operator is required for the autonomous traveling.

【0011】さらに従来からの他の手法として、2台の
視覚センサであるカメラと1つの走行目印を用いて三角
測量の原理から走行車の位置・姿勢を算出する手法もあ
るが、カメラに関する正確なキャリブレーションが必要
であること、処理に要する時間が長いなどのことからビ
ジュアルサーボには利用され得ない。
Further, as another conventional method, there is a method of calculating the position and orientation of a traveling vehicle from the principle of triangulation using two cameras, which are visual sensors, and one traveling landmark. It cannot be used for visual servoing due to the need for careful calibration and the long processing time.

【0012】さらに他の先行技術は、特開昭63−10
9585に開示されたビジュアルサーボ装置であり、こ
れは、ロボットアームの制御にビジュアルサーボを適用
した例であり、自律走行車の制御については言及してい
ない。
Still another prior art is disclosed in JP-A-63-10 / 1988.
No. 9585, which is an example in which visual servo is applied to control of a robot arm, and does not refer to control of an autonomous vehicle.

【0013】[0013]

【発明が解決しようとする課題】本発明の目的は、構成
が単純であり、実施が容易である移動体の走行制御方法
および装置を提供することである。
SUMMARY OF THE INVENTION An object of the present invention is to provide a method and an apparatus for controlling the traveling of a moving body which have a simple structure and are easy to implement.

【0014】[0014]

【課題を解決するための手段】本発明は、教示時に、予
め定める経路に沿って移動体を走行して、固定位置に設
けてある少なくとも2つのランドマークを、その移動体
に角変位可能に設けられたカメラを固定された状態で、
そのカメラによって単一の視野内で撮像し、ランドマー
ク毎に、カメラの直交座標系における一方の軸V方向と
他方の軸H方向との各座標値を対応させて、座標値の組
合せを、メモリにストアしておき、走行時に、カメラに
よって前記ランドマークを単一の視野内で撮像し、撮像
して得られた一方のランドマークの前記一方軸V方向の
座標値v1が同一であるメモリのストア内容の座標値v
t1を読出して検索し、一方のランドマークの検索した
座標値vt1を含む前記組合せにおける他方のランドマ
ークの前記一方軸V方向の座標値vt2を検索し、この
検索した他方のランドマークの座標値vt2と、カメラ
によって撮像した他方のランドマークの前記一方軸V方
向の座標値v2とが一致するように、カメラを角変位
し、次に、撮像した一方のランドマークの他方軸H方向
の座標値h1が前記組合せにおける一方のランドマーク
の他方軸H方向の座標値ht1に一致するように、かつ
撮像した他方のランドマークの他方軸H方向の座標値h
2が他方のランドマークの他方軸H方向の座標値ht2
に一致するように、操舵することを特徴とする移動体の
走行制御方法である。また本発明は、前記操舵時に、撮
像した一方のランドマークの他方軸H方向の座標値h1
と、撮像した他方のランドマークの他方軸H方向の座標
値h2との中心点と、前記組合せにおける一方のランド
マークの他方軸H方向の座標値ht1と、前記組合せに
おける他方のランドマークの他方軸H方向の座標値ht
2との中心点との差Δhが零になるように、操舵するこ
とを特徴とする。また本発明は、移動体には、教示経路
またはその付近の障害物を検出する複数のセンサを設
け、各センサの出力の組合せパターンに個別的に対応し
た予め定める操舵態様で操舵することを特徴とする。ま
た本発明は、教示時に、予め定める経路に沿って移動体
を走行して、固定位置に設けてある少なくとも2つのラ
ンドマークを、その移動体に固定されたカメラによって
単一の視野内で撮像し、ランドマーク毎にカメラの直交
座標系における一方の軸V方向と他方の軸H方向との各
座標値を対応させて構成される各ランドマーク毎の座標
値の組合せを、前記経路に沿ってメモリにストアしてお
き、走行時に、カメラによって前記ランドマークを単一
の視野内で撮像し、撮像して得られた一方のランドマー
クの前記一方軸V方向の座標値v1が同一であるメモリ
のストア内容の座標値vt1を読出して検索し、前記一
方のランドマークの検索した座標値vt1を含む前記組
合せにおける他方のランドマークの前記一方軸V方向の
座標値vt2をメモリのストア内容から検索し、この検
索した前記他方のランドマークの座標値vt2と、カメ
ラによって撮像した前記他方のランドマークの前記一方
軸V方向の座標値v2と一致するように、移動体の向き
のずれを、操舵によって修正し、次に、撮像した前記一
方のランドマークの前記他方の軸H方向の座標値h1
が、メモリにストアされた前記組合せにおける前記一方
のランドマークの前記他方の軸H方向の座標値ht1に
一致するように、かつ撮像した前記他方のランドマーク
の前記他方の軸H方向の座標値h2が、メモリにストア
された前記組合せにおける前記他方のランドマークの前
記他方の軸H方向の座標値ht2に一致するように、移
動体の位置ずれを操舵によって修正することを特徴とす
る移動体の走行制御方法である。 また本発明は、(a)移動体と、 (b)移動体に設けられ、操舵するための操舵手段と、 (c)移動体に搭載され、縦の軸線まわりに角変位可能
に設けられるカメラと、 (d)カメラを、前記縦の軸線まわりに角変位駆動する
角変位駆動手段と、 (e)メモリであって、 移動体にカメラを固定した状態で、予め定める経路に沿
って移動体を走行したとき、固定位置に設けてある少な
くとも2つのランドマークをカメラによって単一の視野
内で撮像して得られる座標値の組合せをストアし、この
座標値の組合せは、各ランドマーク毎に、カメラの直交
座標系における一方の軸V方向と他方の軸H方向との各
座標値を対応させてあるメモリと、 (f)制御手段であって、カメラの出力に応答し、カメ
ラによって撮像して得られた一方のランドマークの前記
一方軸V方向の座標値v1が同一であるメモリのストア
内容の座標値vt1を読出して検索し、一方のランドマ
ークの検索した座標値vt1を含む前記組合せにおける
他方のランドマークの前記一方軸V方向の座標値vt2
を検索し、この検索した他方のランドマークの座標値v
t2と、カメラによって撮像した他方のランドマークの
前記一方軸V方向の座標値v2とが一致するように、角
変位駆動手段を動作させてカメラを角変位し、次に、撮
像した一方のランドマークの他方軸H方向の座標値h1
が前記組合せにおける一方のランドマークの他方軸H方
向の座標値ht1に一致するように、かつ、撮像した他
方のランドマークの他方軸H方向の座標値h2が他方の
ランドマークの他方軸H方向の座標値ht2に一致する
ように、操舵手段を動作させて操舵する制御手段とを含
むことを特徴とする移動体の走行制御装置である。また
本発明は、制御手段は、操舵手段によって、前記操舵時
に、撮像した一方のランドマークの他方軸H方向の座標
値h1と、撮像した他方のランドマークの他方軸H方向
の座標値h2との中心点と、前記組合せにおける一方の
ランドマークの他方軸H方向の座標値ht1と、前記組
合せにおける他方のランドマークの他方軸H方向の座標
値ht2との中心点との差Δhが零になるように、操舵
することを特徴とする。また本発明は、移動体には、移
動体の回転中心を通る軸線上で左前方の障害物を検出す
る第1センサM1と、移動体の回転中心を通る軸線上で
前方の障害物を検出する第2センサM2と、移動体の回
転中心を通る軸線上で右前方の障害物を検出する第3セ
ンサM3とが設けられ、障害物回避用制御手段は、第1
〜第3センサの出力に応答し、第1または第3センサが
障害物を検出したとき、右または左へ予め定める第1角
度だけ向きをそれぞれ変えるように操舵手段によって操
舵し、第2センサが障害物を検出し、かつ第1および第
3センサが障害物を検出していないとき、右または左へ
第1角度よりも大きい第2角度だけ向きを変えるように
操舵手段によって操舵することを特徴とする。 また本発明は、(a)移動体と、 (b)移動体に設けられ、操舵するための操舵手段と、 (c)移動体に固定されるカメラと、 (d)メモリであって、移動体にカメラを固定した状態
で、予め定める経路に沿って移動体を走行したとき、固
定位置に設けてある少なくとも2つのランドマークをカ
メラによって単一の視野内で撮像して得られる各ランド
マーク毎の座標値の組合せを、前記経路に沿ってストア
し、この座標値の組合せは、各ランドマーク毎に、カメ
ラの直交座標系における一方の軸V方向と他方の軸H方
向との各座標値を対応させてあるメモリと、 (e)制御手段であって、カメラの出力に応答し、カメ
ラによって撮像して得られた一方のランドマークの前記
一方軸V方向の座標値v1が同一であるメモリのストア
内容の座標値vt1を読出して検索し、前記一方のラン
ドマークの検索した座標値vt1を含む前記組合せにお
ける前記他方のランドマークの前記一方軸V方向の座標
値vt2をメモリのストア内容から検索し、この検索し
た前記他方のランドマークの座標値vt2と、カメラに
よって撮像した前記他方のランドマークの前記一方の軸
V方向の座標値v2とが一致するように、操舵手段を動
作させて移動体の向きのずれを修正し、次に、撮像した
前記一方のランドマークの前記他方の軸H方向の座標値
h1が、メモリにストアされた前記組合せにおける前記
一方のランドマークの前記他方の軸H方向の座標値ht
1に一致するように、かつ、撮像した前記他方のランド
マークの前記他方の軸H方向の座標値h2が、メモリに
ストアされた前記組合せにおける前記他方のランドマー
クの前記他方の軸H方向の座標値ht2に一致するよう
に、操舵手段を動作させて操舵することによって移動体
の位置ずれを修正する制御手段とを含むことを特徴とす
る移動体の走行制御装置である。
SUMMARY OF THE INVENTION According to the present invention, at the time of teaching, at least two landmarks provided at a fixed position are moved on a moving body along a predetermined route so that the moving body can be angularly displaced. With the provided camera fixed,
The camera captures an image in a single field of view, and for each landmark, associates each coordinate value of one axis V direction and the other axis H direction in the orthogonal coordinate system of the camera with a combination of coordinate values. A memory in which the landmark is imaged in a single field of view by a camera during traveling, and one of the landmarks obtained by imaging has the same coordinate value v1 in the one-axis V direction. Coordinate value v of the store contents of
t1 is read and searched, and the coordinate value vt2 in the one axis V direction of the other landmark in the combination including the searched coordinate value vt1 of one landmark is searched, and the coordinate value of the searched other landmark is searched. The camera is angularly displaced so that vt2 and the coordinate value v2 in the one-axis V direction of the other landmark imaged by the camera coincide with each other, and then the coordinates of the one landmark imaged in the other axis H direction. The value h1 is equal to the coordinate value ht1 of one landmark of the combination in the direction of the other axis H, and the coordinate value h of the captured other landmark in the direction of the other axis H.
2 is the coordinate value ht2 of the other landmark in the direction of the other axis H
This is a traveling control method for a moving body, characterized in that the vehicle is steered so as to coincide with the following. Further, according to the present invention, at the time of the steering, the coordinate value h1 of the one landmark imaged in the other axis H direction is taken.
, A center point of the imaged other landmark with the coordinate value h2 in the other axis H direction, the coordinate value ht1 of one landmark in the other axis H direction in the combination, and the other of the other landmarks in the combination. Coordinate value ht in axis H direction
The steering is performed so that the difference Δh from the center point of the steering wheel 2 becomes zero. Further, the present invention is characterized in that the moving body is provided with a plurality of sensors for detecting obstacles in or around the teaching path, and the vehicle is steered in a predetermined steering mode individually corresponding to a combination pattern of outputs of the sensors. And Further, according to the present invention, at the time of teaching, the mobile body travels along a predetermined route, and at least two landmarks provided at a fixed position are imaged in a single field of view by a camera fixed to the mobile body. Then, a combination of the coordinate values of each landmark, which is made by associating each coordinate value of one axis V direction and the other axis H direction in the orthogonal coordinate system of the camera for each landmark, is set along the path. When the vehicle is running, the landmark is imaged in a single field of view by a camera, and the coordinate value v1 in the one-axis V direction of one of the landmarks obtained by imaging is the same. The coordinate value vt1 of the contents stored in the memory is read and searched, and the coordinate value vt2 in the one-axis V direction of the other landmark in the combination including the searched coordinate value vt1 of the one landmark is obtained. The coordinates of the other landmark are searched from the store contents of the memory, and the coordinate value vt2 of the other landmark obtained by the camera is coincident with the coordinate value v2 of the other landmark in the one-axis V direction taken by the camera. The direction deviation is corrected by steering, and the coordinate value h1 of the one landmark imaged in the direction of the other axis H is then corrected.
Is coordinated with the coordinate value ht1 of the one landmark in the other axis H direction in the combination stored in the memory, and the coordinate value of the captured other landmark in the other axis H direction is a moving body that corrects the displacement of the moving body by steering such that h2 coincides with a coordinate value ht2 of the other landmark in the other axis H direction in the combination stored in the memory; Is a traveling control method. Also, the present invention provides (a) a moving body, (b) a steering means provided on the moving body for steering, and (c) a camera mounted on the moving body and capable of being angularly displaced around a vertical axis. (D) angular displacement driving means for driving the camera angularly displaced around the vertical axis; and (e) a memory, wherein the camera is fixed to the movable body and the movable body is moved along a predetermined path. When the vehicle travels, a combination of coordinate values obtained by imaging at least two landmarks provided at fixed positions in a single field of view by a camera is stored, and the combination of coordinate values is stored for each landmark. A memory in which coordinate values of one axis V direction and the other axis H direction in the orthogonal coordinate system of the camera are associated with each other; and (f) control means, which responds to the output of the camera and captures an image by the camera. One land obtained The coordinate value vt1 of the stored content of the memory having the same coordinate value v1 in the one-axis V direction of the mark is read and searched, and the other landmark in the combination including the searched coordinate value vt1 of one landmark is read. The coordinate value vt2 in the one-axis V direction
Is searched, and the coordinate value v of the other searched landmark is
The angular displacement driving means is operated to angularly displace the camera so that t2 and the coordinate value v2 of the other landmark imaged by the camera in the one-axis V direction coincide with each other. Coordinate value h1 of mark in other axis H direction
Is equal to the coordinate value ht1 of one landmark in the other axis H direction in the combination, and the coordinate value h2 of the other landmark in the other axis H direction is the other axis H direction of the other landmark. And control means for operating and steering the steering means so as to match the coordinate value ht2 of the moving body. Further, according to the present invention, the control means controls the coordinate value h1 of the one landmark imaged in the other axis H direction and the coordinate value h2 of the other landmark imaged in the other axis H direction during the steering by the steering means. And the difference Δh between the center point of the coordinate value ht1 of one landmark in the combination in the direction of the other axis H and the coordinate value ht2 of the other landmark in the combination in the direction of the other axis H becomes zero. It is characterized by steering. Further, according to the present invention, a first sensor M1 for detecting a left front obstacle on an axis passing through the center of rotation of the moving body and a front obstacle detecting on an axis passing through the center of rotation of the moving body are provided. And a third sensor M3 for detecting a right front obstacle on an axis passing through the center of rotation of the moving body.
In response to the output of the third sensor, when the first or third sensor detects an obstacle, the steering is steered by the steering means to change the direction to the right or left by a predetermined first angle, respectively, and the second sensor is When an obstacle is detected and the first and third sensors do not detect an obstacle, the steering is performed by the steering means so as to turn right or left by a second angle larger than the first angle. And The present invention also provides: (a) a moving body; (b) steering means provided on the moving body for steering; (c) a camera fixed to the moving body; Each landmark obtained by imaging at least two landmarks provided at a fixed position in a single field of view by a camera when the mobile body travels along a predetermined route with the camera fixed to the body. A combination of coordinate values for each of the landmarks is stored along the path, and the combination of the coordinate values is stored for each landmark in each of the coordinates of one axis V direction and the other axis H direction in the orthogonal coordinate system of the camera. And (e) a control means, wherein the coordinate value v1 in the one-axis V direction of one of the landmarks obtained by imaging by the camera in response to the output of the camera is the same. The coordinates of the store contents of a memory The value vt1 is read and searched, and the coordinate value vt2 in the one axis V direction of the other landmark in the combination including the searched coordinate value vt1 of the one landmark is searched from the stored contents of the memory. The steering means is operated so that the coordinate value vt2 of the other landmark coincides with the coordinate value v2 in the direction of the one axis V of the other landmark imaged by a camera. The displacement is corrected, and then the coordinate value h1 of the one landmark imaged in the other axis H direction is the coordinate of the one landmark in the other axis H direction in the combination stored in the memory. Value ht
1 and the coordinate value h2 in the other axis H direction of the captured other landmark in the other axis H direction in the other axis H direction of the other landmark in the combination stored in the memory. And a control means for correcting the positional deviation of the moving body by operating and steering the steering means so as to coincide with the coordinate value ht2.

【0015】[0015]

【作用】本発明は上述の課題を解決するために、1台の
視覚センサであるカメラを用い、さらに位置関係が判ら
なくてもよい少なくとも2つの走行目印であるランドマ
ークを用い、移動体の位置および姿勢を制御することが
可能になる。これによって本発明は、走行環境内に存在
する複数の物体をランドマークとして利用し、教示時と
自律走行時のランドマークの撮像位置の幾何学的関係を
用いて走行車の教示経路に沿って誘導する新しい方法お
よび装置を提供する。
In order to solve the above-mentioned problems, the present invention uses a camera as a single visual sensor, and further uses at least two landmarks, which are running marks, whose positional relationship may not be known. The position and the attitude can be controlled. Accordingly, the present invention uses a plurality of objects existing in the traveling environment as landmarks, and uses the geometric relationship between the imaging positions of the landmarks during teaching and autonomous traveling along the teaching path of the traveling vehicle. A new method and apparatus for guiding is provided.

【0016】本発明では、移動体の位置・姿勢を同時に
教示状態に復帰させるような制御は、走行車の位置・姿
勢と走行目印の撮像位置の間にある後述の3つの性質1
〜3を用いて、走行車の位置と姿勢を個別に制御するこ
とでそれぞれを教示状態に近づける。
In the present invention, the control for simultaneously returning the position / posture of the moving body to the teaching state is performed by the following three properties 1 between the position / posture of the traveling vehicle and the imaging position of the traveling mark.
The positions and postures of the traveling vehicles are individually controlled by using 〜 to 3 to approach the teaching state.

【0017】本発明に従えば、メモリには、教示時に、
予め定める経路に沿って移動体を走行して、移動体にカ
メラが固定されている状態で、そのカメラによって単一
の視野内で、その経路付近に設けてある少なくとも2つ
のランドマークを単一の視野内に撮像し、各ランドマー
ク毎にカメラの直交座標系における2つの軸V,Hの各
座標値の組合せをストアしておく。このメモリのストア
内容に基づいて、プレイバック、すなわち走行する際に
は、初期状態では、移動体の位置・姿勢とカメラの向き
が教示状態とは異なっているので、まず、カメラを角変
位して、そのカメラの向きが教示状態と等しい状態とす
る。このために、カメラによって撮像して得られた一方
のランドマークの一方軸V方向の座標値v1が同一であ
るメモリのストア内容の座標値vt1を読出して検索
し、こうして見付けられた座標値の組合せにおける他方
のランドマークの前記一方軸V方向の座標値vt2を検
索し、この他方ランドマークの検索された座標値vt2
と、カメラによって撮像した前記他方のランドマークの
前記一方軸V方向の座標値v2との差Δvが零となるよ
うに、すなわち座標値vt2,v2が一致するように、
カメラが、縦の軸線まわりに角変位される。
According to the present invention, at the time of teaching,
The vehicle travels along a predetermined route, and in a state in which a camera is fixed to the mobile body, at least two landmarks provided near the route in a single field of view by the camera are singulated. And stores a combination of each coordinate value of two axes V and H in the orthogonal coordinate system of the camera for each landmark. Based on the stored contents of this memory, when playing back, that is, when traveling, in the initial state, since the position and orientation of the moving body and the direction of the camera are different from the teaching state, first, the camera is angularly displaced. Then, the direction of the camera is set equal to the teaching state. For this purpose, the coordinate value vt1 of the stored content of the memory having the same coordinate value v1 in the one-axis V direction of one landmark obtained by imaging with the camera is read and searched, and the coordinate value of the coordinate value thus found is obtained. The coordinate value vt2 of the other landmark in the combination in the one-axis V direction is searched, and the searched coordinate value vt2 of the other landmark is searched.
And the difference Δv between the coordinate value v2 of the other landmark imaged by the camera and the one axis V direction is zero, that is, the coordinate values vt2 and v2 match.
The camera is angularly displaced about a vertical axis.

【0018】本発明に従えば、上述のようにカメラの動
きが教示状態と等しくなった後に、次に、カメラとの位
置ずれが零となるようにステアリング、すなわち操舵の
制御を行う。これらの制御を繰返すことによって、移動
体は教示経路に徐々に復帰して予め定める経路を移動す
ることができる。位置ずれが零となるために本発明で
は、撮像した一方のランドマークの他方軸H方向の座標
値h1が、メモリにストアされている前記組合せにおけ
る座標値ht1に一致するように、かつ他方のランドマ
ークに関しても同様であって、すなわち撮像した他方の
ランドマークの座標値h2が前記組合せにおける座標値
ht2に一致するように、操舵手段による操舵が行われ
る。
According to the present invention, after the movement of the camera becomes equal to the teaching state as described above, the steering, that is, the steering control is performed so that the positional deviation from the camera becomes zero. By repeating these controls, the moving body can gradually return to the teaching path and move on the predetermined path. According to the present invention, since the displacement becomes zero, the coordinate value h1 of the one landmark imaged in the other axis H direction matches the coordinate value ht1 of the combination stored in the memory and the other landmark. The same applies to the landmark, that is, the steering by the steering means is performed such that the coordinate value h2 of the other landmark imaged coincides with the coordinate value ht2 of the combination.

【0019】本発明に従えば、位置ずれを零とするため
に、撮像した一方のランドマークの座標値h1と、撮像
した他方のランドマークの座標値h2との中心点C1を
求め、また前記組合せにおける一方のランドマークの座
標値ht1と前記組合せにおける他方のランドマークの
座標値ht2との中心点C2を求め、これらの2つの中
心点C1,C2の差Δhが零となるように操舵する。
According to the present invention, in order to reduce the displacement to zero, a center point C1 between the coordinate value h1 of the one landmark imaged and the coordinate value h2 of the other landmark imaged is obtained. A center point C2 between the coordinate value ht1 of one landmark in the combination and the coordinate value ht2 of the other landmark in the combination is obtained, and the steering is performed so that the difference Δh between these two center points C1 and C2 becomes zero. .

【0020】本発明に従えば、移動体には、複数のセン
サを設けて、教示経路またはその付近の障害物を検出
し、各センサの出力の組合せパターンに個別的に対応し
て予め定める操舵態様で操舵を行い、これによって移動
体の走行中に移動体が障害物に衝突することは回避さ
れ、かつ予め定める経路に沿って移動することが可能に
なる。
According to the present invention, the moving body is provided with a plurality of sensors, detects obstacles in or near the teaching path, and determines a predetermined steering individually corresponding to a combination pattern of outputs from the sensors. Steering is performed in this manner, so that the moving body does not collide with an obstacle while the moving body is traveling, and can move along a predetermined route.

【0021】さらに本発明に従えば、図25および図2
6に関連して後述するように、カメラは移動体に固定の
ままであってもよく、このときには、カメラの向き、し
たがって移動体の向きが、教示状態と一致するように、
操舵を行って移動体の向きのずれを修正し、その後、カ
メラ、したがって移動体の位置ずれが零となるように、
移動体の位置ずれを操舵によって修正する。
According to the present invention, FIGS.
As described below in connection with 6, the camera may remain fixed to the mobile, in which case the orientation of the camera, and thus the orientation of the mobile, may correspond to the teaching state.
Steer to correct the misalignment of the moving body, and then the camera, and thus the moving body, so that the misalignment is zero.
The displacement of the moving body is corrected by steering.

【0022】本発明において原理的には2つのランドマ
ークを用いれば走行車の位置姿勢制御が可能であるが、
3つ以上のランドマークについて本方法を適用すれば走
行車の位置姿勢制御の信頼性、精度をあげることが期待
できる。
In the present invention, the position and orientation of a traveling vehicle can be controlled in principle by using two landmarks.
If this method is applied to three or more landmarks, it is expected that the reliability and accuracy of the position and orientation control of the traveling vehicle will be improved.

【0023】なお本発明では、座標値の組合せが予めス
トアされたメモリを、着脱交換可能にして本発明の制御
手段に接続して本発明を実施することもまた可能であ
り、このようにすれば、1回の教示によって、複数台の
移動体の走行制御が可能である。
In the present invention, it is also possible to implement the present invention by connecting a memory in which a combination of coordinate values is stored in advance in a removable manner and connecting it to the control means of the present invention. For example, the traveling control of a plurality of moving bodies can be performed by one teaching.

【0024】本発明は、走行のための駆動源を備えた移
動体に関連して実施されるだけでなく、そのような駆動
源を備えていない移動体に関してもまた、実施すること
ができる。
The present invention can be implemented not only in relation to a moving body provided with a driving source for traveling, but also with respect to a moving body not having such a driving source.

【0025】[0025]

【実施例】図1は本発明の一実施例の移動体1の側面図
であり、図2はその移動体1の簡略化した平面図であ
る。移動体本体2には、一対の前輪3,4と一対の後輪
5,6とが備えられ、前輪3,4は操舵手段23(後述
の図4参照)によって操舵が可能であり、後輪5,6は
操舵されず、駆動源によって回転駆動されて自律走行が
可能である。移動体本体2の前端部7には、縦の旋回軸
線8まわりに回転可能な雲台9によってカメラ10が搭
載される。雲台9、したがってカメラ10は、旋回駆動
源22(後述の図4参照)によって駆動される。カメラ
10の光軸は参照符11で示されるとおりであって、水
平な経路12上に移動体1が置かれた状態では、水平軸
線13から俯角θ1、たとえば−20度に設定される。
カメラ10は、たとえばマトリクス状のCCD(電荷蓄
積素子)を備える撮像素子に対物レンズによって結像さ
れる構成となっていてもよい。移動体本体2の直進方向
の軸線は参照符14で示され、この軸線14とカメラ1
0の雲台9による旋回軸線8とは一平面内で直交する。
旋回軸線8は、4つの車輪3〜6の走行路面と接する一
平面に垂直である。この一平面は、たとえば移動体1が
船であるときには、海面または水面である。車両回転中
心は参照符15で示され、この中心15から前輪車軸ま
での距離DS1および後輪車軸までの距離DS2とは等
しい。
FIG. 1 is a side view of a moving body 1 according to one embodiment of the present invention, and FIG. 2 is a simplified plan view of the moving body 1. The moving body 2 is provided with a pair of front wheels 3, 4 and a pair of rear wheels 5, 6, and the front wheels 3, 4 can be steered by steering means 23 (see FIG. 4 described later), and the rear wheels are provided. The wheels 5 and 6 are not steered, and are driven to rotate by a drive source to be able to travel autonomously. A camera 10 is mounted on a front end 7 of the moving body 2 by a camera platform 9 that is rotatable around a vertical rotation axis 8. The camera platform 9 and thus the camera 10 are driven by a turning drive source 22 (see FIG. 4 described later). The optical axis of the camera 10 is as indicated by reference numeral 11, and is set to a depression angle θ1 from the horizontal axis 13, for example, −20 degrees when the moving body 1 is placed on a horizontal path 12.
The camera 10 may have a configuration in which an image is formed by an objective lens on an image sensor including a matrix CCD (charge storage device), for example. The axis of the moving body 2 in the straight traveling direction is indicated by reference numeral 14, and this axis 14 and the camera 1
The rotation axis 8 of the camera platform 9 of 0 is orthogonal to the plane within one plane.
The turning axis 8 is perpendicular to a plane that is in contact with the traveling road surface of the four wheels 3 to 6. This one plane is, for example, the sea surface or the water surface when the moving body 1 is a ship. The center of rotation of the vehicle is designated by the reference numeral 15, and the distance DS1 from the center 15 to the front wheel axle and the distance DS2 from the rear wheel axle are equal.

【0026】図3は、移動体1が固定位置に設けられた
ランドマーク16,17に従って、教示された目標とな
る予め定める経路18に沿って移動する状態を示す簡略
化した平面図である。ビジュアルサーボによって自律走
行車を制御するためには、カメラ10の出力データの変
化と走行車の位置・姿勢の変化との間の関係を表現しな
ければならない。そこで走行環境内に存在する2つの物
体をランドマーク16,17として利用し、走行車に搭
載されたカメラ10によって得られる教示時と走行時の
それらの撮像位置の間の幾何学的性質を用いてこの関係
を表現する。そしてこの関係を用いてカメラ10を取付
けた雲台と走行車のステアリングに対して個別にビジュ
アルサーボをかけ、目標軌道経路18に沿った自律走行
を実現する。
FIG. 3 is a simplified plan view showing a state in which the moving body 1 moves along a predetermined route 18 as a taught target according to landmarks 16 and 17 provided at fixed positions. In order to control the autonomous traveling vehicle by the visual servo, a relationship between a change in output data of the camera 10 and a change in the position / posture of the traveling vehicle must be expressed. Therefore, two objects existing in the traveling environment are used as landmarks 16 and 17, and the geometrical properties between the image capturing positions during teaching and traveling obtained by the camera 10 mounted on the traveling vehicle are used. Express the leverage relationship. Then, using this relationship, a visual servo is individually applied to the pan head on which the camera 10 is mounted and the steering of the traveling vehicle to realize autonomous traveling along the target orbit route 18.

【0027】本件実施例では、以下のような条件1〜5
が必要である。走行車に関して、(1)運動を制御する
ためのステアリング機構を有すること、(2)カメラ1
0のような視覚センサが走行車移動平面に対して垂直な
軸まわりの回転(パン)が可能な雲台に設置されている
こと、および(3)ステアリングと雲台は個別に制御可
能であること。また、走行環境に関して(4)走行車は
整地を移動する(したがって図1におけるカメラの高さ
H1は一定である)こと、および(5)ランドマーク1
6,17として利用可能な物体が2つ以上存在するこ
と。ただし、或る物体がランドマーク16,17として
利用可能であるということは、画像処理によりその物体
が抽出可能であるということである。したがってカラー
画像処理やパターンマッチングなどによる物体認識技術
を適用すれば、より多くの物体をランドマーク16,1
7として利用することができる。
In the present embodiment, the following conditions 1 to 5 are set.
is necessary. Regarding the traveling vehicle, (1) having a steering mechanism for controlling movement, (2) camera 1
A visual sensor, such as 0, is installed on a pan that can rotate (pan) about an axis perpendicular to the traveling plane of the vehicle, and (3) the steering and the pan can be individually controlled. thing. Regarding the traveling environment, (4) the traveling vehicle moves on the leveling ground (therefore, the height H1 of the camera in FIG. 1 is constant), and (5) the landmark 1
There are two or more objects that can be used as 6,17. However, that a certain object can be used as the landmarks 16 and 17 means that the object can be extracted by image processing. Therefore, if an object recognition technique based on color image processing or pattern matching is applied, more objects can be landmarks 16 and 1.
7 can be used.

【0028】図4は、本発明の一実施例の電気的構成を
示すブロック図である。カメラ10からの2次元撮像画
像は、画像処理回路19に与えられる。メモリ20に
は、教示データがストアされ、書込みおよび読出しのた
めの処理回路21によってメモリ20の内容が制御され
る。雲台9によるカメラ10の縦の軸線8まわりの旋回
は、旋回駆動源22によって行われる。また前輪3,4
の操舵は、操舵手段23によって行われる。この図4に
関連する構成は、後述のプレイバック走行時に関連して
述べる。
FIG. 4 is a block diagram showing an electrical configuration of one embodiment of the present invention. The two-dimensional captured image from the camera 10 is provided to the image processing circuit 19. The teaching data is stored in the memory 20, and the contents of the memory 20 are controlled by a processing circuit 21 for writing and reading. The turning of the camera 10 around the vertical axis 8 by the camera platform 9 is performed by a turning drive source 22. Also front wheels 3, 4
Is performed by the steering means 23. The configuration related to FIG. 4 will be described in connection with the later-described playback traveling.

【0029】教示時には、カメラ10が走行車である移
動体1の直進方向、すなわち軸線14に沿う前方の方向
を向くように、換言すると、移動体方向2の軸線14と
カメラ10の光軸とは一平面内にあるように、雲台9、
したがってカメラ10を移動体本体2に固定した状態で
教示を行い、ランドマーク16,17を単一の視野内で
撮像して、メモリ20に記録する。
At the time of teaching, the camera 10 is directed in the straight direction of the moving body 1 as a traveling vehicle, that is, in the forward direction along the axis 14, in other words, the axis 14 of the moving body direction 2 and the optical axis of the camera 10 are aligned. Is in one plane, the head 9,
Therefore, teaching is performed with the camera 10 fixed to the moving body 2, and the landmarks 16 and 17 are imaged in a single field of view and recorded in the memory 20.

【0030】ビジュアルサーボによる走行車制御では、
最初に教示作業を行う。雲台9によるカメラ10を走行
車直進方向に固定させた状態で、オペレータが所望の経
路に沿って走行車を実走行させて教示を行う。そしてそ
のとき走行車に搭載されたカメラ10によって撮像され
た画像から、輝度、形状、色などの画像特徴パラメータ
が背景とは大きく異なる物体を、ランドマーク16,1
7として画像処理により2つ抽出する。
In running vehicle control by visual servo,
First, teaching work is performed. In a state where the camera 10 by the camera platform 9 is fixed in the traveling direction of the traveling vehicle, the operator teaches the traveling vehicle by actually traveling the traveling vehicle along a desired route. Then, from the image captured by the camera 10 mounted on the traveling vehicle at that time, objects whose image characteristic parameters such as luminance, shape, and color are significantly different from the background are identified as landmarks 16 and 1.
7, two are extracted by image processing.

【0031】次にそれらの画像上の軌跡を求めて表1の
ような教示データを作成し、その後の自律走行に使用す
る。これらの画像処理は自動化される。また、画像処理
によって2つ以上の物体が抽出された場合には、ランド
マーク利用計画立案に関するプロダクションシステムを
用いることによって、どの時点でどの物体をランドマー
クとして用いればよいかを自動的に決定することができ
る。したがって本方法でオペレータにとって必要な教示
作業は、走行車を所望の経路に沿って実走行させるだけ
である。
Next, the trajectories on the images are obtained to create teaching data as shown in Table 1, and used for subsequent autonomous traveling. These image processes are automated. Further, when two or more objects are extracted by the image processing, it is automatically determined at which point in time which object should be used as a landmark by using a production system for planning a landmark use plan. be able to. Therefore, the teaching operation necessary for the operator in this method is only to make the traveling vehicle actually travel along the desired route.

【0032】図5は、直交座標系の定義を示す図であ
る。図5において、記号Σcはカメラ座標系、Σiは画
像平面座標系、cPfはΣcから見た特徴物すなわちラ
ンドマーク16または17の座標、iPfはΣiから見
た特徴物の座標、fはレンズ焦点距離である。カメラ1
0の焦点位置がΣcの原点、光軸がX軸と一致するよう
にΣiを定める。
FIG. 5 is a diagram showing the definition of a rectangular coordinate system. In FIG. 5, a symbol Σc is a camera coordinate system, Σi is an image plane coordinate system, cPf is a coordinate of a feature, that is, a landmark 16 or 17, viewed from Σc, iPf is a coordinate of a feature viewed from Σi, and f is a lens focal point. Distance. Camera 1
Σi is determined such that the focal position of 0 coincides with the origin of Σc and the optical axis coincides with the X axis.

【0033】添え字wはワールド座標系であり、cはカ
メラ座標系であり、iは画像座標系であり、fはランド
マークの点を示し、tは教示データを表し、rは走行時
のデータを表し、沿え字1,2は特徴物であるランドマ
ーク16,17をそれぞれ表す番号である。
The suffix w is a world coordinate system, c is a camera coordinate system, i is an image coordinate system, f indicates a point of a landmark, t indicates teaching data, and r indicates a travel time. Data is shown, and superscripts 1 and 2 are numbers representing landmarks 16 and 17 which are features.

【0034】記号についてさらに述べると、Σは座標
系、Pは座標、cPfは座標系Σcにおける特徴物であ
るランドマークの座標を示し、x,y,zは3次元座標
を示し、h,vは画像平面座標を示し、αは座標系Σc
のwZ軸まわりの回転角であって、カメラ10の向きは
反時計まわりを正としており、βは座標系ΣcのwY軸
まわりの回転角を示し、カメラ10の俯角を示し、下向
きを正とし、θは角度を示し、Lはカメラ10とランド
マーク16,17のwZにおける距離を示し、dは教示
時と走行時の走行車の位置ずれ量を示し、記号fはカメ
ラ10のレンズの焦点距離を示す。
To further describe the symbols, Σ indicates a coordinate system, P indicates a coordinate, cPf indicates the coordinates of a landmark which is a feature in the coordinate system Σc, x, y, z indicate three-dimensional coordinates, h, v Indicates image plane coordinates, and α indicates a coordinate system Σc
Is the rotation angle around the wZ axis, the direction of the camera 10 is positive in the counterclockwise direction, β is the rotation angle of the coordinate system Σc around the wY axis, indicates the depression angle of the camera 10, and the downward direction is positive. , Θ indicate angles, L indicates the distance between the camera 10 and the landmarks 16 and 17 at wZ, d indicates the amount of displacement of the traveling vehicle during teaching and during traveling, and symbol f indicates the focal point of the lens of the camera 10. Indicates the distance.

【0035】教示時には、カメラ10の結像面である画
像の直交座標系25における縦の一方の軸V方向と他方
の水平の軸H方向との各ランドマーク16,17毎にお
ける座標値を対応させて、その座標値の組合せを、メモ
リ20にストアしておく。軸V方向は、旋回軸線8と平
行である。表1における画像番号1〜nは、合計n個の
座標値の組合せを表す。
At the time of teaching, the coordinate values of each of the landmarks 16 and 17 in one vertical axis V direction and the other horizontal axis H direction in the orthogonal coordinate system 25 of the image, which is the image plane of the camera 10, correspond to each other. Then, the combination of the coordinate values is stored in the memory 20. The axis V direction is parallel to the pivot axis 8. Image numbers 1 to n in Table 1 represent a combination of a total of n coordinate values.

【0036】[0036]

【表1】 [Table 1]

【0037】本発明に従うビジュアルサーボの手法を説
明する。本発明では、カメラ10によって得られる教示
時と走行時の2つのランドマーク16,17の撮像位置
の幾何学的性質を用いる。図6において、図6(1)
は、カメラ10によるランドマーク16,17の画像P
1,P2およびメモリ20によってストアされている対
応した点Pt1,Pt2の向きのカメラ10における結
像面上の像を示す図であり、これによって向きのずれを
説明する。また図6(2)は、カメラ10によって撮像
された点P1,P2とメモリ20にストアされた各点P
t1,Pt2の位置のずれを説明するための図である。
これらの図6(1)および図6(2)において破線は、
ランドマーク16,17の教示経路を示す。2つのラン
ドマーク16,17の教示時の時刻tにおける撮像位置
を Pt1(ht1,vt1),Pt2(ht2,vt2)
(ht1>ht2) とし、走行時の撮像位置を P1(h1,v1),P2(t2,v2) とすると、この性質1〜3は次のように表すことができ
る。
The method of the visual servo according to the present invention will be described. In the present invention, the geometric properties of the imaging positions of the two landmarks 16 and 17 obtained by the camera 10 during teaching and during traveling are used. In FIG. 6, FIG.
Is the image P of the landmarks 16 and 17 by the camera 10
FIG. 3 is a diagram showing images on the image forming plane of the camera 10 in the directions of the corresponding points Pt1 and Pt2 stored by the memory 1 and P2 and the memory 20. FIG. 6B shows points P1 and P2 captured by the camera 10 and points P1 and P2 stored in the memory 20.
It is a figure for explaining displacement of position of t1 and Pt2.
6 (1) and 6 (2), the broken lines indicate
4 shows a teaching path of the landmarks 16 and 17. Pt1 (ht1, vt1) and Pt2 (ht2, vt2) are the imaging positions at time t when the two landmarks 16 and 17 are taught.
Assuming that (ht1> ht2) and the imaging positions during traveling are P1 (h1, v1) and P2 (t2, v2), these properties 1 to 3 can be expressed as follows.

【0038】(性質1)走行中のランドマーク16,1
7の垂直方向撮像位置v1が教示データの中の時刻tに
おけるランドマークの垂直撮像位置vt1に等しけれ
ば、そのときのランドマークとカメラ10との距離は教
示データの時刻tにおける距離と等しい。すなわち、与
えられたランドマーク16の垂直方向撮像位置vが教示
データの中の時刻tにおけるランドマークの垂直方向撮
像位置vtに等しければ、与えられた状態のランドマー
クとカメラの距離は教示データ時刻tにおけるそれに等
しい。
(Properties 1) Landmarks 16, 1 running
If the vertical imaging position v1 of 7 is equal to the vertical imaging position vt1 of the landmark at time t in the teaching data, the distance between the landmark and the camera 10 at that time is equal to the distance at time t of the teaching data. That is, if the given vertical imaging position v of the landmark 16 is equal to the vertical imaging position vt of the landmark at time t in the teaching data, the distance between the given landmark and the camera is the teaching data time. equal to that at t.

【0039】本方法で用いる教示時と走行時の2つのラ
ンドマーク16,17の幾何学的な性質1の証明を以下
に示す。
The proof of the geometric property 1 of the two landmarks 16 and 17 used in the present method during teaching and during traveling is shown below.

【0040】先ず、性質1〜3の基礎となる基礎式の導
出について述べる。図5より、カメラ10の焦点距離が
座標系Σcの原点、光軸がX軸(cX)と一致するよう
に座標系Σiを定める。このとき、
First, a description will be given of derivation of a basic expression that is the basis of properties 1 to 3. From FIG. 5, the coordinate system 定 め る i is determined so that the focal length of the camera 10 coincides with the origin of the coordinate system Σc and the optical axis coincides with the X axis (cX). At this time,

【0041】[0041]

【数1】 (Equation 1)

【0042】 ΣcのwZ軸まわりの回転角:α(カメラの向き) ΣcのwY軸まわりの回転角:β(カメラの仰角) wPf = wRc・cPf+wPc …(3) ∴ cPf = wRc-1(wPf−wPc) …(4) ここで図7も参照して、 Σw:ワールド座標系、 wPc:ΣwにおけるΣc(カメラ)の位置 である。ただし、Rotation angle of Σc around wZ axis: α (camera direction) Rotation angle of Σc around wY axis: β (elevation angle of camera) wPf = wRc · cPf + wPc (3) ∴cPf = wRc −1 (wPf) −wPc) (4) Here, also referring to FIG. 7, Σw: the world coordinate system, wPc: the position of Σc (camera) in Σw. However,

【0043】[0043]

【数2】 (Equation 2)

【0044】したがって、Therefore,

【0045】[0045]

【数3】 (Equation 3)

【0046】簡単化のため、カメラの仰角β=0とする
と、
For simplicity, if the elevation angle of the camera is β = 0,

【0047】[0047]

【数4】 (Equation 4)

【0048】簡単化のため、上述のようにカメラ仰角β
=0とすると、教示時の時刻tにおける特徴物であるラ
ンドマーク16,17の画像平面座標(hf(t),v
f(t))T 、および走行時の時刻t′における特徴物
の画像平面座標(h′f(t′),v′f(t′))T
を、それぞれ式1,2を用いて、
For simplicity, the camera elevation angle β
= 0, the image plane coordinates (hf (t), v
f (t)) T , and the image plane coordinates (h′f (t ′), v′f (t ′)) T of the feature at the time t ′ during traveling
By using equations 1 and 2, respectively.

【0049】[0049]

【数5】 (Equation 5)

【0050】 ここで (wXf,wYf,wZf)T :Σwから見た特徴物fの座標、 (wXc(t),wYc(t),wZc(t))T :Σwから見た教示時の時刻tにおけるカメラ の座標、 (wX'c(t'),wY'c(t'),wZ'c(t'))T :Σwから見た走行時の時刻t′におけるカメ ラの座標、 α :教示時の時刻tにおけるカメラのwZ軸まわりの回転角 α′:走行時の時刻t′におけるカメラのwZ軸まわりの回転角 こうして基礎式の導出を行った。Here, (wXf, wYf, wZf) T : coordinates of the feature f viewed from Σw, (wXc (t), wYc (t), wZc (t)) T : time at the time of teaching viewed from Σw camera coordinates at t, (wX'c (t '), wY'c (t'), wZ'c (t ')) T : the coordinates of the camera at time t' when traveling as viewed from Σw, α : The rotation angle of the camera around the wZ axis at the time t during teaching α ': The rotation angle of the camera around the wZ axis at the time t' during traveling In this way, the basic formula was derived.

【0051】次に前述の(性質1)を証明する。図8を
参照して、カメラ10の結像面25上において、状態
1,2は次のとおりである。 〔状態1〕 教示時の状態tにおける走行車の位置 〔状態2〕 走行時の状態t′における走行車の位置 これらの状態1,2で特徴物fとカメラ10との距離が
等しい場合、式2より、特徴物fの画像平面v座標はc
Zf,cXfによって決定される。
Next, the above (property 1) will be proved. Referring to FIG. 8, states 1 and 2 on image forming plane 25 of camera 10 are as follows. [State 1] Position of traveling vehicle in state t during teaching [State 2] Position of traveling vehicle in state t 'during traveling In these states 1 and 2, when the distance between feature f and camera 10 is equal, According to 2, the image plane v coordinate of the feature f is c.
It is determined by Zf and cXf.

【0052】今、 cZf = wZf − wZc = const …(10) (wZf=constは明らか、wZc=constと
する。)が成立するとすると、vfはcXfによって決
まる。
Now, assuming that cZf = wZf-wZc = const (10) (where wZf = const is clear and wZc = const), vf is determined by cXf.

【0053】したがって状態1,2で特徴物fとカメラ
10の距離が等しいということは、 cXf(t)= cX′f(t)= cXf …(11) であるから、それぞれの状態1,2における特徴物fの
画像平面v座標位置は等しい。
Accordingly, the fact that the distance between the feature f and the camera 10 is equal in the states 1 and 2 means that cXf (t) = cX'f (t) = cXf (11). Are the same in the image plane v coordinate position of the feature f.

【0054】したがって前述の性質1が証明されたこと
になる。
Therefore, the above property 1 has been proved.

【0055】本発明ではまた、図6(1)を参照して、
次の性質2を用いる。
In the present invention, referring to FIG.
The following property 2 is used.

【0056】(性質2)性質1が成立っているとき、ラ
ンドマークの走行中の垂直撮像位置v2と教示データ中
の時刻tにおける垂直撮像位置vt2との差Δv Δv = vt2 − v2 …(12) がカメラ10の教示状態との向きのずれを表す(ただ
し、向きのずれが45°以内のときに限る)。すなわち
2つのランドマークf1,f2に注目し、与えられた状
態においてカメラ10とランドマークf1までの距離が
教示データの中の時刻tにおけるそれと等しいとき、ラ
ンドマークf2の垂直撮像位置の教示データとの差Δv
2が教示状態との向きのずれを表す。
(Property 2) When the property 1 is satisfied, the difference Δv Δv = vt2−v2 between the vertical imaging position v2 during the travel of the landmark and the vertical imaging position vt2 at time t in the teaching data (12) ) Represents the deviation of the direction from the teaching state of the camera 10 (however, only when the deviation of the direction is within 45 °). That is, focusing on the two landmarks f1 and f2, when the distance between the camera 10 and the landmark f1 is equal to that at the time t in the teaching data in a given state, the teaching data of the vertical imaging position of the landmark f2 is Difference Δv
Reference numeral 2 denotes a deviation from the teaching state.

【0057】図9における特徴物f1,f2について、
教示時(状態1)と走行時(状態2)の間の垂直撮像座
標vの差は式2より
Regarding the features f1 and f2 in FIG.
The difference between the vertical imaging coordinates v between the teaching time (state 1) and the traveling time (state 2) is given by Equation 2.

【0058】[0058]

【数6】 (Equation 6)

【0059】 カメラとf1までの距離が状態1,2で等しいことから Δv1 = 0 …(15) より cxr1 = cXt1 …(16) ここで、 cxt1=(wx1−wxtc)cosαt−(wy1−wytc)sinαt …(17) cxr1=(wx1−wxrc)cosαr−(wy1−wyrc)sinαr …(18) 簡単化のため教示時の走行車の向きを基準とするために、 αt = 0 …(19) Δα = αr − αt(=αr) …(20) とすると、 cxr1−wxtc =(wx1−wxrc)cosΔα −(wy1−wyrc)sinΔα …(21) ∴ wxtc =wx1−(wx1−wxrc)cosΔα+(wy1−wyrc)sinΔα …(22) したがって、式14は式22を使って、 (式14の分子)=cxr2−cxt2 =(wx2−wxrc)cosΔα−(wy2−wyrc)sinΔα −(wx2−wxtc) =(wx2−wxrc)cosΔα−(wy2−wyrc)sinΔα−wx2 +wx1−(wx1−wxrc)cosΔα+(wy1−wyrc)sinΔα =(ΔY1−ΔY2)sinΔα−(ΔX1−ΔX2)cosΔα+(ΔX1−ΔX2) …(23) (式14の分母)=cxrt2・cx2 =〔(wx2−wxrc)cosΔα−(wy2−wyrc)sinΔα〕× 〔wx2−wx+(wx1−wxrc)cosΔα−(wy1−wyrc)sinΔα〕 =〔ΔX2・cosΔα−ΔY2・sinΔα〕× 〔ΔX1・cosΔα−ΔY1・sinΔα+ΔX2−ΔX1〕 …(24) であるから、Since the distance between the camera and f1 is equal in states 1 and 2, Δv1 = 0 (15) cxr1 = cXt1 (16) where cxt1 = (wx1-wxtc) cosαt- (wy1-wytc) sinαt (17) cxr1 = (wx1-wxrc) cosαr- (wy1-wyrc) sinαr (18) For simplicity, in order to refer to the direction of the traveling vehicle at the time of teaching, αt = 0 0 (19) Δα = Αr−αt (= αr) (20), cxr1-wxtc = (wx1-wxrc) cosΔα− (wy1-wyrc) sinΔα (21) ∴wxtc = wx1- (wx1-wxrc) cosΔα + (wy1- wyrc) sinΔα (22) Therefore, Expression 14 uses Expression 22. (Numerator of Expression 14) = cxr2-cxt2 = (wx2-wxrc) cosΔα- (wy2-wyrc) s inΔα- (wx2-wxtc) = (wx2-wxrc) cosΔα- (wy2-wyrc) sinΔα-wx2 + wx1- (wx1-wxrc) cosΔα + (wy1-wyrc) sinΔα = (ΔY1-ΔY2) sinΔα- (ΔX1-) cosΔα + (ΔX1−ΔX2) (23) (denominator of equation 14) = cxrt2 · cx2 = [(wx2-wxrc) cosΔα− (wy2-wyrc) sinΔα] × [wx2-wx + (wx1-wxrc) cosΔα- (wy1) −wyrc) sinΔα] = [ΔX2 · cosΔα−ΔY2 · sinΔα] × [ΔX1 · cosΔα−ΔY1 · sinΔα + ΔX2-ΔX1] (24)

【0060】[0060]

【数7】 (Equation 7)

【0061】ただし、 ΔX = wx1 − wx2 ΔY = wy1 − wy2 ΔX1= wx1 − wxrc ΔY1= wy1 − wyrc ΔX2= wx2 − wxrc ΔY2= wy2 − wyrc 式25は、カメラの光学パラメータとランドマーク位置
がある条件内であるときΔαの増加に従ってΔv2が単
調増加し、性質2が成り立つ。その条件は式25の数値
解析により得られる。
Where ΔX = wx1−wx2 ΔY = wy1−wy2 ΔX1 = wx1−wxrc ΔY1 = wy1−wyrc ΔX2 = wx2−wxrc ΔY2 = wy2−wyrc Δv2 monotonically increases as Δα increases, and the property 2 holds. The condition is obtained by numerical analysis of Expression 25.

【0062】一例として画角、画像サイズがそれぞれ9
0°、512×512ピクセルであり、カメラとランド
マークとの距離が1〜10mの範囲であるときは、カメ
ラ1,2として撮像画像平面h座標がそれぞれ275〜
511,0〜235にある物体を使用すれば、 −5°≦ Δα ≦ 5° …(26) の範囲で性質2が成り立つ。こうして性質2が証明され
た。
As an example, the angle of view and the image size are each 9
0 °, 512 × 512 pixels, and when the distance between the camera and the landmark is in the range of 1 to 10 m, the captured image plane h coordinates of the cameras 1 and 2 are 275 to 275, respectively.
If the objects at 511 to 0 to 235 are used, the property 2 is satisfied in the range of −5 ° ≦ Δα ≦ 5 ° (26). Thus, Property 2 was proved.

【0063】教示状態と実際の状態とのカメラ10の向
きのずれ量は、前述の図10(1)および図10(2)
で示されるように、(L2−Lt2)すなわちΔv2を
見れば判る。このずれ量Δv2は、カメラ10の撮像画
面25におけるランドマーク16または17の上下方向
の軸vの位置のずれを表している。図10(1)を参照
して、走行時の或る状態Pにおいて、ランドマーク16
との距離L1が同じである教示状態Tに注目したとき、
もう1つのランドマーク17の距離の差(L2−Lt
2)、すなわちランドマーク17の画像垂直位置の差Δ
v2が、向きのずれ量θの大きさを表している。
The amount of deviation of the direction of the camera 10 between the teaching state and the actual state can be determined by referring to FIGS. 10 (1) and 10 (2).
As can be seen from (L2−Lt2), that is, Δv2. The shift amount Δv2 indicates a shift of the position of the landmark 16 or 17 on the imaging screen 25 of the camera 10 along the vertical axis v. Referring to FIG. 10A, in a certain state P during traveling, landmark 16
When attention is paid to the teaching state T in which the distance L1 to
The difference in distance between the other landmarks 17 (L2-Lt
2), that is, the difference Δ between the image vertical positions of the landmarks 17
v2 represents the magnitude of the direction shift amount θ.

【0064】本発明において用いられる最後の性質とし
て、性質3を説明する。この性質3は、図11および図
12を参照して、教示状態と現在のカメラ10による撮
像時の状態とにおいてカメラ10の向きのずれがない場
合、ランドマーク撮像水平位置のずれは、移動体1の位
置ずれ量に比例するということである。すなわち図12
において、Δhは、位置ずれdに比例する。
Property 3 will be described as the last property used in the present invention. The property 3 is that, when the orientation of the camera 10 is not shifted between the teaching state and the current state of imaging by the camera 10 with reference to FIGS. That is, it is proportional to the displacement amount of 1. That is, FIG.
In the equation, Δh is proportional to the displacement d.

【0065】(性質3)性質2が成立っているとき、ラ
ンドマーク1(あるいは2)の走行中の水平撮像位置h
1(あるいはh2)と教示データ中の時刻tにおける水
平撮像位置ht1(あるいはht2)との差 Δh1 = Δht1−h1 …(27) あるいは、 Δh2 = Δht2−h2 …(28) がカメラ10の教示状態との位置ずれを表す。すなわち
与えられた状態と教示データの中の時刻tにおける状態
とで向きのずれがないとき、そのときのランドマーク水
平撮像位置の差Δh1,Δh2が教示状態との位置のず
れを表す。
(Property 3) When property 2 is satisfied, the horizontal imaging position h of the landmark 1 (or 2) during traveling
The difference between 1 (or h2) and the horizontal imaging position ht1 (or ht2) at time t in the teaching data Δh1 = Δht1-h1 (27) or Δh2 = Δht2-h2 (28) Represents a positional deviation from That is, when there is no misalignment between the given state and the state at time t in the teaching data, the difference Δh1, Δh2 between the landmark horizontal imaging positions at that time indicates the misalignment with the teaching state.

【0066】性質3が成立することを次に証明する。Next, it will be proved that the property 3 is satisfied.

【0067】状態1,2で向きのずれがなく(α=
α′)、特徴物fとの距離が等しい場合、 P1:(wXc,wYc,wZc) …(29) P2:(wX′c,wY′c,wZ′c) …(30)
In states 1 and 2, there is no misalignment (α =
α ′), when the distance to the feature f is equal, P1: (wXc, wYc, wZc) (29) P2: (wX′c, wY′c, wZ′c) (30)

【0068】[0068]

【数8】 (Equation 8)

【0069】式1より特徴物fの画像平面25の座標上
のh位置hfは、cXf,cYfによって決定される。
条件より特徴物fとの距離が等しいことから、 cXf(t)= cX′f(t′)= cXf …(32) であるから、hfはcYfによって決まる。
From Expression 1, the h position hf of the feature f on the coordinates of the image plane 25 is determined by cXf and cYf.
Since the distance to the feature f is equal according to the condition, cXf (t) = cX'f (t ') = cXf (32), so that hf is determined by cYf.

【0070】また、 hf(t)−h′f(t′) ∝ cYf(t)−cY′f(t′) ∝〔(wXf−wXc(t))sin α +(wYf−wYc(t))cos α〕 −〔(wXf−wXc(t)+d sin α)sin α +(wYf−wYc−d cos α)cos α〕 ∝ d …(33) したがって特徴物fの画像平面h座標位置のずれ量 hf(t)−h′f(t′) は走行車の位置ずれ量dに比例する。こうして性質3が
証明された。
Further, hf (t) −h′f (t ′) ∝cYf (t) −cY′f (t ′) ∝ [(wXf−wXc (t)) sin α + (wYf−wYc (t)) ) Cos α] − [(wXf−wXc (t) + d sin α) sin α + (wYf−wYc−d cos α) cos α] ∝ d (33) Accordingly, the displacement of the feature f in the image plane h coordinate position The quantity hf (t) -h'f (t ') is proportional to the displacement d of the traveling vehicle. Property 3 was thus proved.

【0071】本発明では、Δv=0となるように雲台9
を制御し、Δh=0となるようにステアリングを制御す
ることで走行車を教示経路に沿って走行させる。雲台9
とステアリングはPID(比例、積分、微分)制御など
を用いて制御される。ステアリング制御に走行車の位置
の偏差に関する量Δhだけ使った場合、走行車の運動が
収束しにくくなる性質がある。そこで走行車の姿勢変化
を抑制する効果を与えるために、雲台の操作量をステア
リングの操作量に加え、図4のようなビジュアルサーボ
系を構成する。上述の説明では、ランドマーク16,1
7を、特徴物f1,f2などで示すことがある。
In the present invention, the pan head 9 is set so that Δv = 0.
And the steering is controlled so that Δh = 0 so that the traveling vehicle travels along the teaching path. Head 9
The steering is controlled using PID (proportional, integral, differential) control or the like. When only the amount Δh relating to the deviation of the position of the traveling vehicle is used for the steering control, there is a property that the motion of the traveling vehicle hardly converges. Therefore, in order to provide the effect of suppressing the change in the attitude of the traveling vehicle, the visual servo system as shown in FIG. 4 is configured by adding the operation amount of the camera platform to the operation amount of the steering wheel. In the above description, the landmarks 16, 1
7 may be indicated by features f1, f2, and the like.

【0072】図13は、図4に示される本発明の一実施
例の電気回路の動作を説明するためのフローチャートで
ある。メモリ20にストアされている教示データに基づ
いて、プレイバック走行時においては、図13に示され
る動作が実施される。ステップb1〜ステップb6は、
雲台9による旋回駆動手段22を動作して制御を行う。
また、ステップb7では、上述の性質3を利用して、操
舵手段23によるステアリング制御を行う。すなわちス
テップb1〜ステップb6は、上述の性質1および性質
2を利用して、カメラ10の向きが常に教示状態とほぼ
同じになるように、雲台9による旋回駆動手段22を動
作して制御する。またステップb7では、上述のように
教示状態とカメラ10の向きのずれがほぼなくなってい
ることによって、前述の性質3を利用し、カメラ10の
位置ずれがほぼ零となるように操舵手段23によるステ
アリング制御を行う。このステアリング制御は、走行車
である移動体1の位置ずれが零となるようにステアリン
グ制御を行うことと同じである。
FIG. 13 is a flowchart for explaining the operation of the electric circuit of one embodiment of the present invention shown in FIG. During playback running, the operation shown in FIG. 13 is performed based on the teaching data stored in the memory 20. Step b1 to step b6,
The control is performed by operating the turning drive means 22 by the camera platform 9.
In step b7, the steering control by the steering means 23 is performed by utilizing the above-described property 3. That is, in Steps b1 to b6, the turning drive unit 22 by the camera platform 9 is operated and controlled using the above-described properties 1 and 2 so that the direction of the camera 10 is always substantially the same as the teaching state. . In step b7, since the deviation between the teaching state and the direction of the camera 10 is almost eliminated as described above, the above-mentioned property 3 is used, and the steering unit 23 is operated so that the positional deviation of the camera 10 becomes almost zero. Perform steering control. This steering control is the same as performing steering control so that the displacement of the moving body 1 that is a traveling vehicle becomes zero.

【0073】まずステップb1〜ステップb6の説明に
関して、図14を参照する。図14において破線は教示
経路を示しており、このカメラ10の結像面25内にお
いて、ステップb1からステップb2に移り、画像デー
タを得る。これによってステップb3では、ランドマー
ク16,17に関して、V−H平面内で、点P1,P2
が得られる。そこで一方のランドマーク16を基準とし
て考える。ランドマーク16について、前述の性質1を
利用して垂直軸Vの座標値が同じである教示点Pt1を
ステップb4で、前述の表1におけるメモリ20の教示
データから検索する。点P1の軸V方向の座標値v1が
同一であるメモリ20のストア内容の座標値vt1を読
出して検索し、その画像番号、すなわち座標値の組合せ
を見付ける。
First, reference is made to FIG. 14 for the description of steps b1 to b6. In FIG. 14, a broken line indicates a teaching path, and the process moves from step b1 to step b2 in the image forming plane 25 of the camera 10 to obtain image data. As a result, in step b3, the points P1 and P2 in the VH plane are
Is obtained. Therefore, one landmark 16 is considered as a reference. For the landmark 16, the teaching point Pt1 having the same coordinate value of the vertical axis V is searched for from the teaching data in the memory 20 in Table 1 in step b4 using the above-described property 1. The coordinate value vt1 stored in the memory 20 having the same coordinate value v1 in the axis V direction of the point P1 is read and searched, and the image number, that is, the combination of the coordinate values is found.

【0074】ステップb5では、点Pt1に対応するも
う1つのランドマーク17の教示経路上の点Pt2を検
索する。この検索は、前述の同一の座標値の組合せ内か
ら得る。
At step b5, a point Pt2 on the teaching path of another landmark 17 corresponding to the point Pt1 is searched. This search is obtained from within the above-described combination of the same coordinate values.

【0075】こうしてステップb4では、教示点Pt1
を検索し、次のステップb5では、教示点Pt2を検索
する。
Thus, at step b4, the teaching point Pt1
In the next step b5, the teaching point Pt2 is searched.

【0076】ステップb6では、雲台9の旋回制御を行
う。雲台9の旋回制御量E1は、たとえば図4に示した
方法で定められる。図4中のΔvは、前述の式12で述
べたとおりである。
In step b6, the turning of the camera platform 9 is controlled. The turning control amount E1 of the camera platform 9 is determined, for example, by the method shown in FIG. Δv in FIG. 4 is as described in Expression 12 above.

【0077】ステップb7では、操舵制御を行う。この
ステップb7では、図15に示される水平軸Hの点P
1,P2の中心点c11と教示データの点Pt1,Pt
2の中心点c21とを、式34,35によって求める。
At step b7, steering control is performed. In this step b7, the point P on the horizontal axis H shown in FIG.
1, P2 center point c11 and teaching data points Pt1, Pt
The center point c21 of 2 is obtained by Expressions 34 and 35.

【0078】[0078]

【数9】 (Equation 9)

【0079】これらの値ht1,ht2は、メモリ20
における前述の座標値の組合せが同一であるものを用い
る。
These values ht1 and ht2 are stored in the memory 20
Are used in which the combination of the above-mentioned coordinate values is the same.

【0080】差Δhを、式36によって求める。Δh
は、次の式36で用いられる。
The difference Δh is obtained by equation (36). Δh
Is used in the following Expression 36.

【0081】 Δh = c11 − c21 …(36) 操舵制御量E2は、たとえば図4に示した方法で定めら
れる。
Δh = c11−c21 (36) The steering control amount E2 is determined, for example, by the method shown in FIG.

【0082】ステップb8では、全教示経路が終了した
かどうかが判断され、終了していなければステップb2
に移る。ステップb8において、終了したことが判断さ
れると、ステップb9に移り、全ての動作を終了する。
こうして定数F1,F2を適切な値に選ぶことによっ
て、走行車は、教示経路にほぼ一致して辿ることができ
る。
At step b8, it is determined whether or not all the teaching paths have been completed.
Move on to If it is determined in step b8 that the operation has been completed, the process proceeds to step b9, and all operations are completed.
By selecting the constants F1 and F2 to appropriate values in this way, the traveling vehicle can follow the teaching route almost in agreement.

【0083】図4に戻り、演算回路26は、前述の式3
4の演算を行い、また演算回路27は前述の式35の演
算を行う。減算器28は、向きのずれΔvを演算する。
もう1つの減算器29は、位置ずれΔhを演算する。旋
回駆動源22の制御のために、比例および積分のための
各回路30,31および加算器32が備えられ、さらに
計数器33が設けられ、カメラ10の旋回角度は、入出
力制限回路34から駆動回路35に与えられ、こうして
旋回駆動源22が動作される。
Referring back to FIG. 4, the arithmetic circuit 26 calculates the above equation (3).
4 and the operation circuit 27 performs the operation of the above-described equation 35. The subtractor 28 calculates the direction shift Δv.
Another subtractor 29 calculates the displacement Δh. In order to control the turning drive source 22, circuits 30 and 31 for proportionality and integration and an adder 32 are provided, and a counter 33 is further provided. The turning drive source 22 is provided to the drive circuit 35 and thus the turning drive source 22 is operated.

【0084】操舵手段23の操舵のために、比例および
積分のための回路37,38および加算器39が備えら
れる。さらに計数器40,42が備えられる。加算器4
3では、計数器44を介するカメラ10の旋回のための
信号が与えられて加算され、前述のように移動体1の姿
勢変化を抑制する効果を達成し、移動体1の運動を収束
しやすくする。加算器43の出力は、操舵制限回路44
に与えられて、その操舵角度が制限され、駆動回路45
は、操舵手段23を駆動する。
For steering of the steering means 23, circuits 37 and 38 for proportionality and integration and an adder 39 are provided. Further, counters 40 and 42 are provided. Adder 4
In 3, the signal for turning the camera 10 through the counter 44 is given and added, and the effect of suppressing the change in the posture of the moving body 1 is achieved as described above, and the movement of the moving body 1 is easily converged. I do. The output of the adder 43 is supplied to a steering limiting circuit 44.
And the steering angle is limited, and the drive circuit 45
Drives the steering means 23.

【0085】図16は、図4に示される本発明の他の実
施例の電気回路の動作を説明するためのフローチャート
である。メモリ20にストアされている教示データに基
づいて、プレイバック走行時においては、図16に示さ
れる動作が実施される。ステップa1〜ステップa6
は、上述の性質1および性質2を利用して、カメラ10
の向きが常に教示状態と同じになるように、雲台9によ
る旋回駆動手段22を動作して制御する。またステップ
a7〜a9では、上述のように教示状態とカメラ10の
向きのずれがなくなっていることによって、前述の性質
3を利用し、カメラ10の位置ずれが零となるように操
舵手段23によるステアリング制御を行う。このステア
リング制御は、走行車である移動体1の位置ずれが零と
なるようにステアリング制御を行うことと同じである。
まずステップa1〜ステップa6の説明に関して、図1
4を参照する。図14において破線は教示経路を示して
おり、このカメラ10の結像面25内において、ステッ
プa1からステップa2に移り、画像データを得る。こ
れによってランドマーク16,17に関して、ステップ
a2−1では、V−H平面内で、点P1,P2が得られ
る。そこで一方のランドマーク16を基準として考え
る。ランドマーク16について、前述の性質1を利用し
て垂直軸Vの座標値が同じである教示点Pt1を前述の
表1におけるメモリ20の教示データから検索する。点
P1の軸V方向の座標値v1が同一であるメモリ20の
ストア内容の座標値vt1を読出して検索し、その画像
番号、すなわち座標値の組合せを見付ける。
FIG. 16 is a flowchart for explaining the operation of the electric circuit of another embodiment of the present invention shown in FIG. During playback running, the operation shown in FIG. 16 is performed based on the teaching data stored in the memory 20. Step a1 to step a6
Uses the properties 1 and 2 described above to
Is controlled by operating the swivel driving means 22 by the camera platform 9 so that the direction is always the same as the teaching state. In steps a7 to a9, since the deviation between the teaching state and the direction of the camera 10 has been eliminated as described above, the above-described property 3 is used, and the steering unit 23 is operated so that the positional deviation of the camera 10 becomes zero. Perform steering control. This steering control is the same as performing steering control so that the displacement of the moving body 1 that is a traveling vehicle becomes zero.
First, regarding the description of steps a1 to a6, FIG.
Refer to FIG. In FIG. 14, a broken line indicates a teaching path, and the process moves from step a1 to step a2 in the image forming plane 25 of the camera 10 to obtain image data. Thereby, with respect to the landmarks 16 and 17, at step a2-1, points P1 and P2 are obtained in the VH plane. Therefore, one landmark 16 is considered as a reference. For the landmark 16, the teaching point Pt1 having the same coordinate value of the vertical axis V is searched from the teaching data in the memory 20 in Table 1 described above using the above-described property 1. The coordinate value vt1 stored in the memory 20 having the same coordinate value v1 in the axis V direction of the point P1 is read and searched, and the image number, that is, the combination of the coordinate values is found.

【0086】ステップa3では、点Pt1に対応するも
う1つのランドマーク17の教示経路上の点Pt2を検
索する。この検索は、前述の同一の座標値の組合せ内か
ら得る。
At step a3, a search is made for a point Pt2 on the teaching path of another landmark 17 corresponding to the point Pt1. This search is obtained from within the above-described combination of the same coordinate values.

【0087】ステップa4では、点P2と点Pt2との
垂直軸vの座標値の差Δv(=vt2−v2)が零とな
るように、雲台9による旋回駆動源22をステップa
5,a6によって駆動制御する。こうしてΔv=0とな
ったときカメラ10の向きが教示状態と同じとなったこ
ととなり、これは性質2を利用したことになる。
In step a4, the turning drive source 22 by the pan head 9 is moved to step a so that the difference Δv (= vt2−v2) between the coordinate values of the vertical axis v between the points P2 and Pt2 becomes zero.
Drive control is performed by 5 and a6. Thus, when Δv = 0, the direction of the camera 10 becomes the same as the teaching state, which means that the property 2 is used.

【0088】次のステップa7では、図15に示される
水平軸Hの点P1,P2の中心点c11と教示データの
点Pt1,Pt2の中心点c21とを、式34,35に
よって求める。
In the next step a7, the center point c11 of the points P1 and P2 on the horizontal axis H and the center point c21 of the points Pt1 and Pt2 of the teaching data shown in FIG.

【0089】これらの値ht1,ht2は、メモリ20
における前述の座標値の組合せが同一であるものを用い
る。
These values ht1 and ht2 are stored in the memory 20
Are used in which the combination of the above-mentioned coordinate values is the same.

【0090】差Δhを、式36によって求める。The difference Δh is obtained by Expression 36.

【0091】そこでΔh=0となるように、操舵手段2
3によるステアリング制御をステップa8で行う。これ
によってカメラ10の位置、すなわち移動体1の走行車
の位置が教示状態と同じになり、これは性質3を用いた
ことになる。このようなステップa1〜a9の処理動作
を繰返すことによって、カメラ10が常に教示時の向き
に制御されながら、走行車は教示経路に沿って自律走行
することができる。
Then, the steering means 2 is set so that Δh = 0.
The steering control by 3 is performed in step a8. As a result, the position of the camera 10, that is, the position of the traveling vehicle of the moving body 1 becomes the same as the teaching state, which means that the property 3 is used. By repeating the processing operations of steps a1 to a9, the traveling vehicle can autonomously travel along the teaching route while the camera 10 is always controlled to the direction at the time of teaching.

【0092】図17は、本件発明者の実験結果を示す。
教示経路47の前方にランドマーク16,17が配置さ
れ、移動体1はスタート位置48から自動走行を開始し
た。この結果、経路50をたどって目標位置51に到達
することができたことが確認された。
FIG. 17 shows the experimental results of the present inventor.
The landmarks 16 and 17 are arranged in front of the teaching path 47, and the moving body 1 has started automatic traveling from the start position 48. As a result, it was confirmed that the target position 51 could be reached by following the route 50.

【0093】上述の図17は教示経路47が直進経路で
あったけれども、図18に示される本件発明者の他の実
験結果では、教示経路52は曲線経路であり、移動体は
スタート位置53から移動を開始し、経路55をたどっ
て目標位置56に到達することができたことが確認され
た。
Although the teaching path 47 is a straight path in FIG. 17 described above, according to another experiment result of the present inventor shown in FIG. 18, the teaching path 52 is a curved path, and the moving object is moved from the start position 53 to the starting position 53. It was confirmed that the user started moving and could follow the route 55 to reach the target position 56.

【0094】本発明の他の実施例では、もっと多くのラ
ンドマークを順次使用していくことで長距離にわたる自
律走行が可能になる。図19はシミュレーションにより
長距離自律走行を検証した例である。ここでは教示は所
望の経路に沿って走行車を走行させたときに抽出される
すべての物体の画像上軌跡を記録する。自律走行時は観
測される物体の中から走行車に近い位置にある(垂直撮
像位置が下方である)2つの物体をランドマークとして
順次選択し、それらの物体の教示データを用いてビジュ
アルサーボを行う。したがって本件実施例ではオペレー
タが走行車を実走行させるだけで長距離にわたる自律走
行が可能である。各領域A,B,C毎に、ランドマーク
81〜84を順次的に切換えて、用いる。またランドマ
ークの選択に、ビジュアルサーボに最適なランドマーク
の選択に関する知識を組込んだプロダクションシステム
を用いることにより、さらに信頼性が高く効率的な自律
走行が可能となる。
In another embodiment of the present invention, autonomous traveling over a long distance becomes possible by sequentially using more landmarks. FIG. 19 is an example of verifying long-distance autonomous traveling by simulation. Here, the teaching records the trajectories on the image of all the objects extracted when the traveling vehicle travels along the desired route. During autonomous driving, two objects located close to the traveling vehicle (the vertical imaging position is below) are sequentially selected from the observed objects as landmarks, and visual servoing is performed using the teaching data of those objects. Do. Therefore, in this embodiment, autonomous traveling over a long distance is possible only by the operator actually driving the traveling vehicle. The landmarks 81 to 84 are sequentially switched and used for each of the areas A, B, and C. In addition, by using a production system that incorporates knowledge about the selection of a landmark that is optimal for a visual servo for the selection of a landmark, more reliable and efficient autonomous driving becomes possible.

【0095】本件発明者の他の実験結果について述べ
る。本発明の上述の実施例を用いて図20は本発明の他
の実施例の移動体1の簡略化した平面図であり、図21
はその移動体1のもっと具体的な構成を示す簡略化した
平面図である。移動体本体2に関する構成は、前述の実
施例と同様であり、図20および図21ではそのような
構成は詳述されていない。注目すべきはこの実施例は移
動体1が障害物を回避する構成となっていることであ
る。回転中心15を通る軸線59上で左前方の障害物を
検出する第1センサM1が本体2に取付けられる。さら
に回転中心15を通る軸線14上で前方の障害物を検出
する第2センサM2が本体2に固定される。第3センサ
M3は、回転中心15を通る軸線60上で右前方の障害
物を検出する。軸線59,60は移動体本体2の軸線1
4に関して左右に対称であり、角度θ2,θ3は、たと
えば30度であってもよい。
The results of another experiment of the present inventors will be described. FIG. 20 is a simplified plan view of a moving body 1 according to another embodiment of the present invention using the above-described embodiment of the present invention.
FIG. 2 is a simplified plan view showing a more specific configuration of the moving body 1. The structure relating to the moving body 2 is the same as that of the above-described embodiment, and such a structure is not described in detail in FIGS. It should be noted that in this embodiment, the moving body 1 is configured to avoid obstacles. A first sensor M1 that detects an obstacle on the left front on an axis 59 passing through the rotation center 15 is attached to the main body 2. Further, a second sensor M2 for detecting an obstacle ahead on the axis 14 passing through the rotation center 15 is fixed to the main body 2. The third sensor M3 detects a right front obstacle on an axis 60 passing through the center of rotation 15. The axes 59 and 60 correspond to the axis 1 of the moving body 2.
4, the angles θ2 and θ3 may be, for example, 30 degrees.

【0096】図22は、図20および図21に示される
実施例の全体の電気的構成を示すブロック図である。マ
イクロコンピュータなどによって実現される処理回路6
2には、カメラ10、メモリ20、駆動回路35,45
などが接続され、この構成は、前述の実施例と同様であ
る。特にこの実施例ではセンサM1〜M3の出力が処理
回路62に与えられる。
FIG. 22 is a block diagram showing the overall electrical configuration of the embodiment shown in FIGS. 20 and 21. Processing circuit 6 realized by microcomputer or the like
2 includes a camera 10, a memory 20, drive circuits 35 and 45,
Are connected, and this configuration is similar to that of the above-described embodiment. In particular, in this embodiment, the outputs of the sensors M1 to M3 are provided to the processing circuit 62.

【0097】図23は処理回路62の動作を説明するた
めのフローチャートである。ステップb1からステップ
b2に移り、教示経路を走行する動作が行われる。この
ステップb2の動作は、前述の図14に関連して述べた
動作と同様である。特にこの実施例ではステップb3に
おいてセンサM1〜M3による障害物があるかどうかが
判断される。障害物がセンサM1〜M3によって検出さ
れると、ステップb3からステップb4に移り、その障
害物を回避するための操舵手段23による制御動作が行
われる。センサM1〜M3は超音波センサであってもよ
く、すなわち超音波を外方に放射し、その反射波によっ
て、各センサM1〜M3と障害物との間の距離を測定す
る構成を有する。検出された距離が予め定める一定の値
未満であるときには、障害物があるものと判断し、ON
信号を導出し、またその検出距離が予め定める値以上で
あるときには、OFF信号を導出する。処理回路62
は、前述の図23のステップb4において、各センサM
1〜M3の出力に応答して、表2に示される操舵手段2
3による操舵角制御を行う。
FIG. 23 is a flow chart for explaining the operation of the processing circuit 62. The operation moves from step b1 to step b2, and the operation of traveling on the teaching route is performed. The operation in step b2 is the same as the operation described with reference to FIG. In particular, in this embodiment, it is determined in step b3 whether there is an obstacle by the sensors M1 to M3. When an obstacle is detected by the sensors M1 to M3, the process moves from step b3 to step b4, and a control operation by the steering means 23 for avoiding the obstacle is performed. Each of the sensors M1 to M3 may be an ultrasonic sensor, that is, has a configuration in which ultrasonic waves are radiated outward and the distance between each of the sensors M1 to M3 and an obstacle is measured by a reflected wave. When the detected distance is less than a predetermined value, it is determined that there is an obstacle, and ON is determined.
A signal is derived, and when the detection distance is equal to or greater than a predetermined value, an OFF signal is derived. Processing circuit 62
In step b4 of FIG. 23, each sensor M
1 to M3, the steering means 2 shown in Table 2
3 for steering angle control.

【0098】[0098]

【表2】 [Table 2]

【0099】第1または第3センサM1,M3が障害物
を検出してON信号を導出したときには、右に操舵角γ
R/2または左へ操舵角γL/2だけ向きを変えるよう
に操舵手段23が制御される。さらに第2センサM2が
障害物を検出してON信号を導出し、かつ第1および第
3センサM1,M3が障害物を検出しておらず、OFF
信号を導出しているときには、この実施例では操舵角γ
Rだけ操舵手段23が制御され、最大の操舵角γRで右
に向きが変えられる。他の実施例としてこのときには操
舵手段23はγLだけ向きが変えられるように操舵され
てもよい。
When the first or third sensor M1, M3 detects an obstacle and derives an ON signal, the steering angle γ is shifted to the right.
The steering means 23 is controlled so as to change the direction by R / 2 or the steering angle γL / 2 to the left. Further, the second sensor M2 detects an obstacle and derives an ON signal, and the first and third sensors M1 and M3 do not detect an obstacle and are turned OFF.
When the signal is derived, in this embodiment, the steering angle γ
The steering means 23 is controlled by R, and is turned rightward at the maximum steering angle γR. As another embodiment, at this time, the steering means 23 may be steered so that the direction can be changed by γL.

【0100】γRは、操舵手段23による右方向への最
大操舵角であり、γLは操舵手段23による左方向の最
大操舵角であり、この実施例ではたとえばγR=γLで
ある。
ΓR is the maximum rightward steering angle of the steering unit 23, and γL is the maximum leftward steering angle of the steering unit 23. In this embodiment, for example, γR = γL.

【0101】上述のように走行車に障害物検知センサを
搭載すれば、上述の実施例により障害物回避機能を実現
することができる。一例として、3つの障害物検知セン
サM1〜M3を図24に示したように走行車に設置して
障害物回避シミュレーションを行った。このセンサM1
〜M3は取付け方向軸上80cm以内に存在する物体を
検知し、検出信号を出力するものを想定した。ここでは
雲台9は障害物63の有無に関係なく常に教示の状態と
向きが同じになるように制御されており、センサM1〜
M3が障害物を検知したときに限り、走行車のステアリ
ングのみを障害物を回避する方向に一定値制御してい
る。この実施例ではセンサM2だけが検出ON信号を出
力したときはステアリングを最大左に切るように設定し
ている。すなわち3つの障害物検知センサM1〜M3を
走行車に取付け、本発明による障害物回避制御を計算機
でシミュレーションした。これらのセンサは一定距離内
に障害物を検知したら障害物検出信号を出力するもので
あり、それぞれのセンサの出力信号と走行制御の間には
表2のような関係を用いる。
If the obstacle detecting sensor is mounted on the traveling vehicle as described above, the obstacle avoidance function can be realized by the above-described embodiment. As an example, three obstacle detection sensors M1 to M3 were installed on a traveling vehicle as shown in FIG. 24, and an obstacle avoidance simulation was performed. This sensor M1
It is assumed that M3 detects an object existing within 80 cm on the mounting direction axis and outputs a detection signal. Here, the pan head 9 is controlled so that the teaching state and the orientation are always the same regardless of the presence or absence of the obstacle 63.
Only when M3 detects an obstacle, only the steering of the traveling vehicle is controlled to a constant value in a direction to avoid the obstacle. In this embodiment, when only the sensor M2 outputs the detection ON signal, the steering is set to turn left at the maximum. That is, the three obstacle detection sensors M1 to M3 were mounted on a traveling vehicle, and the obstacle avoidance control according to the present invention was simulated by a computer. These sensors output an obstacle detection signal when an obstacle is detected within a certain distance, and the relationship shown in Table 2 is used between the output signal of each sensor and the travel control.

【0102】このときの走行結果を図24に示す。これ
により本発明によって障害物回避制御が可能であること
がわかる。シミュレーションは直線教示経路上に障害物
を置いたときの自律走行の様子を検証したものであり、
障害物として柱状物体(断面の大きさが40cm×40
cm、高さ無限大)を用いた。シミュレーション結果を
図24に示す。これにより本方法によって障害物回避機
能が実現できることがわかる。なお、このシミュレーシ
ョンでは障害物によるランドマークの隠蔽については考
慮していないが、そのような場合には他の物体をランド
マークとして利用することで自律走行を継続することが
できる。
FIG. 24 shows the running result at this time. Thus, it is understood that obstacle avoidance control can be performed according to the present invention. The simulation verifies the autonomous driving when an obstacle is placed on the straight teaching path,
Columnar object (cross section 40cm x 40) as obstacle
cm, height infinity). FIG. 24 shows the simulation results. This shows that the obstacle avoidance function can be realized by this method. In this simulation, hiding of a landmark by an obstacle is not considered, but in such a case, autonomous traveling can be continued by using another object as a landmark.

【0103】移動体1の走行速度は、たとえば10cm
/secであって一定であってもよい。
The traveling speed of the moving body 1 is, for example, 10 cm.
/ Sec and may be constant.

【0104】図25は、本発明の他の実施例を説明する
ための簡略化した平面図である。この実施例は、前述の
図1〜図19に示される実施例に類似するけれども、注
目すべきはこの実施例では、雲台9が設けられず、移動
体本体2に直接にカメラ10が固定され、旋回ができな
いように構成されている。カメラ10の光軸11は、移
動体本体2の直進軸線14と一致している。
FIG. 25 is a simplified plan view for explaining another embodiment of the present invention. Although this embodiment is similar to the above-described embodiment shown in FIGS. 1 to 19, it should be noted that in this embodiment, the camera platform 10 is not provided, and the camera 10 is directly fixed to the moving body 2. It is configured to be unable to turn. The optical axis 11 of the camera 10 coincides with the rectilinear axis 14 of the moving body 2.

【0105】ランドマーク16,17が存在し、移動体
がスタート位置64から目標位置65に教示経路66を
経て走行して移動するように教示されているとき、移動
体を参照符67で示されるように配置したときには、図
26に示されるように、まず移動体67の向きが、操舵
手段23によって修正され、次に位置ずれ量がステップ
e2において計測される。ステップe3では位置ずれ量
が零となるように操舵手段23が動作される。これによ
ってステップe4では向きのずれが修正される。こうし
てステップe1〜ステップe4が繰返されることによっ
て、教示経路66に近付くように移動体が走行される。
ステップe1では、移動体は67から68に移動し、ス
テップe2では、移動体68から69に進み、ステップ
e3では移動体が69から70に進む。ステップe4で
は移動体が70から71に進む。このようにして参照符
72で示されるように移動体が移動して教示経路66に
復帰してゆく。
When the landmarks 16 and 17 are present and the moving body is taught to travel from the start position 64 to the target position 65 via the teaching path 66, the moving body is indicated by a reference numeral 67. 26, first, the direction of the moving body 67 is corrected by the steering means 23, and then the displacement is measured in step e2. In step e3, the steering means 23 is operated so that the amount of displacement becomes zero. Thereby, the deviation of the direction is corrected in step e4. By repeating steps e1 to e4 in this way, the moving body travels so as to approach the teaching path 66.
In step e1, the moving object moves from 67 to 68, in step e2, the moving object moves from 69 to 69, and in step e3, the moving object moves from 69 to 70. In step e4, the moving object advances from 70 to 71. In this manner, the moving body moves as indicated by reference numeral 72 and returns to the teaching path 66.

【0106】この実施例では、前述の実施例と同様に移
動体1にカメラ10を固定した状態で、予め定める経路
に沿って移動体を走行したとき、固定位置に設けてある
少なくとも2つのランドマーク16,17をカメラ10
によって単一の視野内で撮像して得られるランドマーク
16の座標値とランドマーク17の座標値との組合せを
メモリ20にストアする。この座標値の組合せは、各ラ
ンドマーク16,17毎に、カメラ10の直交座標系に
おける一方の軸V方向と他方の軸H方向との各座標値を
対応させてある。
In this embodiment, when the mobile unit is moved along a predetermined route while the camera 10 is fixed to the mobile unit 1 as in the above-described embodiment, at least two lands provided at the fixed positions are provided. Marks 16 and 17 on camera 10
The combination of the coordinates of the landmark 16 and the coordinates of the landmark 17 obtained by imaging in a single field of view is stored in the memory 20. This combination of coordinate values is such that the coordinate values of one axis V direction and the other axis H direction in the orthogonal coordinate system of the camera 10 correspond to each landmark 16 and 17.

【0107】制御手段は、カメラ10の出力に応答し、
カメラ10によって撮像して得られた一方のランドマー
ク16の前記一方軸V方向の座標値v1が同一であるメ
モリのストア内容の座標値vt1を読出して検索し、一
方のランドマーク16の検索した座標値vt1を含む前
記組合せにおける他方のランドマーク17の前記一方軸
V方向の座標値vt2を検索する。この検索した他方の
ランドマーク17の座標値vt2と、カメラ10によっ
て撮像した他方のランドマーク17の前記一方軸V方向
の座標値v2とが一致するように、操舵手段23を動作
させて移動体1の向きを角変位して修正する。
The control means responds to the output of the camera 10,
The coordinate value vt1 of the stored content of the memory having the same coordinate value v1 in the one-axis V direction of the one landmark 16 obtained by imaging with the camera 10 is read and searched, and the one landmark 16 is searched. The coordinate value vt2 in the one-axis V direction of the other landmark 17 in the combination including the coordinate value vt1 is searched. The moving means is operated by operating the steering means 23 so that the coordinate value vt2 of the other landmark 17 thus retrieved matches the coordinate value v2 of the other landmark 17 captured by the camera 10 in the one-axis V direction. The direction of 1 is corrected by angular displacement.

【0108】次に、撮像した一方のランドマーク16の
他方軸H方向の座標値h1が前記組合せにおける一方の
ランドマーク16の他方軸H方向の座標値ht1に一致
するように、かつ、撮像した他方のランドマーク17の
他方軸H方向の座標値h2が他方のランドマーク17の
他方軸H方向の座標値ht2に一致するように、操舵手
段23を動作させて操舵することによって移動体の位置
ずれを修正する。
Next, the coordinate value h1 of one of the landmarks 16 in the other axis H direction is coincident with the coordinate value ht1 of the one landmark 16 in the other axis H direction in the combination, and the image was picked up. The position of the moving body is controlled by operating the steering means 23 so that the coordinate value h2 of the other landmark 17 in the other axis H direction coincides with the coordinate value ht2 of the other landmark 17 in the other axis H direction. Correct the misalignment.

【0109】移動体1は、前述の図1および図2に示さ
れた構成に限ることなく、その他の構成であってもよ
い。すなわち、移動体1は、4輪駆動および/または4
輪操舵方式であってもよい。さらに図27に平面が示さ
れるように、3輪車であって、前輪3,4または後輪9
8を操舵するように構成されてもよく、さらにはまたそ
のような図27に示される3輪車において、差動旋回方
式で操舵される構成であってもよく、このとき駆動輪は
前輪3,4または後輪98であってもよい。さらに本発
明によれば、駆動および操舵の構成は、各種の構成が、
当業者に容易に考えられる。本発明は、船または飛行機
などに関連してもまた、実施することができる。
The moving body 1 is not limited to the configuration shown in FIGS. 1 and 2, but may have another configuration. That is, the moving body 1 is a four-wheel drive and / or a four-wheel drive.
The wheel steering system may be used. Further, as shown in FIG. 27, a three-wheeled vehicle having front wheels 3, 4 or rear wheels 9
The steering wheel may be configured to be steered by a differential turning method in such a three-wheeled vehicle as shown in FIG. , 4 or the rear wheel 98. Furthermore, according to the present invention, the configuration of the driving and steering includes various configurations,
It is easily conceived by those skilled in the art. The invention may also be practiced in connection with ships or airplanes and the like.

【0110】[0110]

【発明の効果】以上のように本発明によれば、走行制御
に利用する走行目印すなわちランドマークの位置は全く
未知であるため、走行環境内に存在している多くの物体
を走行目印として利用することができる。このため、走
行目印を新たに設置するなどの走行環境の整備が必要な
く、走行経路の自由度も高い。また、内界センサやオペ
レータの指示も不要である。
As described above, according to the present invention, since the position of a landmark used for traveling control, that is, the position of a landmark is completely unknown, many objects existing in the traveling environment are used as the traveling landmark. can do. For this reason, it is not necessary to maintain the traveling environment such as newly installing traveling marks, and the degree of freedom of the traveling route is high. Also, there is no need for an internal sensor or operator's instruction.

【0111】こうして本発明では、走行環境内にある2
つの物体をランドマークとし、それらの物体の位置は未
知でよく、しかも使用するカメラは1台でよく、さらに
オペレータの指示は必要ないという優れた効果が達成さ
れる。本発明によれば、走行環境内に存在する物体をラ
ンドマークとして利用するため、意図的に設計したター
ゲットマークなどを新たに設置する必要がなく、ランド
マークとして利用する物体は少なくとも2つあればよ
く、それらの位置関係は未知でよく、使用するカメラは
1台だけであり、内界センサは必要ない。
Thus, according to the present invention, the 2
An excellent effect is obtained in that two objects are landmarks, the positions of those objects need not be known, and only one camera is used, and further, no operator instruction is required. According to the present invention, since an object existing in the traveling environment is used as a landmark, there is no need to newly install a target mark or the like that is intentionally designed, and if there are at least two objects to be used as landmarks, Frequently, their positional relationship may not be known, only one camera is used, and no internal sensor is required.

【0112】こうして本発明では、所望の経路に沿って
走行車を実走行させるだけで教示が完了し、以後はオペ
レータの介在なしにその経路を自律走行することが可能
である。
Thus, according to the present invention, the teaching is completed only by causing the traveling vehicle to actually travel along the desired route, and thereafter, it is possible to autonomously travel the route without the intervention of the operator.

【0113】また本発明によれば、移動体に複数のセン
サを設け、各センサの出力の組合せパターンに個別的に
対応して操舵手段によって予め定める操舵態様で操舵を
行うことによって、移動体の走行中に移動体が障害物に
衝突することを回避して、教示経路の目的地に移動させ
ることが可能になる。
Further, according to the present invention, a plurality of sensors are provided on the moving body, and the steering is performed in a predetermined steering mode by the steering means in correspondence with the combination pattern of the outputs of the respective sensors. It is possible to prevent the moving body from colliding with an obstacle during traveling and move to the destination on the teaching route.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の移動体1の側面図である。FIG. 1 is a side view of a moving body 1 according to an embodiment of the present invention.

【図2】図1に示される実施例の移動体1の簡略化した
平面図である。
FIG. 2 is a simplified plan view of the moving body 1 of the embodiment shown in FIG.

【図3】移動体1が移動する状態を示す平面図である。FIG. 3 is a plan view showing a state in which the moving body 1 moves.

【図4】移動体1の電気的構成を示すブロック図であ
る。
FIG. 4 is a block diagram showing an electrical configuration of the moving body 1.

【図5】座標系の定義を示す図である。FIG. 5 is a diagram showing a definition of a coordinate system.

【図6】2つのランドマーク16,17を用いたビジュ
アルサーボの原理を説明するための図である。
FIG. 6 is a diagram for explaining the principle of visual servo using two landmarks 16 and 17;

【図7】座標系を説明するための図である。FIG. 7 is a diagram for explaining a coordinate system.

【図8】本発明の基礎となる原理を説明するための図で
ある。
FIG. 8 is a diagram for explaining the principle underlying the present invention.

【図9】本発明の性質1を説明するための図である。FIG. 9 is a diagram for explaining property 1 of the present invention.

【図10】本発明の性質2を説明するための図である。FIG. 10 is a diagram for explaining property 2 of the present invention.

【図11】本発明における性質3を説明するための図で
ある。
FIG. 11 is a diagram for explaining property 3 in the present invention.

【図12】図11とは異なる状態における性質3を説明
するための図である。
FIG. 12 is a diagram for explaining property 3 in a state different from FIG. 11;

【図13】図1〜図12に示される実施例における動作
を説明するためのフローチャートである。
FIG. 13 is a flowchart for explaining an operation in the embodiment shown in FIGS. 1 to 12;

【図14】2つのランドマーク16,17を用いたビジ
ュアルサーボの具体的な手法を説明し、カメラ10の向
きのずれをなくすための動作を説明するための図であ
る。
FIG. 14 is a diagram for explaining a specific method of visual servo using two landmarks 16 and 17 and explaining an operation for eliminating a deviation in the direction of the camera 10;

【図15】2つのランドマーク16,17を用いたビジ
ュアルサーボの具体的な手法を説明するものであって、
移動体1の位置ずれをなくすための動作を説明するため
の図である。
FIG. 15 is a view for explaining a specific method of visual servo using two landmarks 16 and 17,
FIG. 4 is a diagram for explaining an operation for eliminating a displacement of the moving body 1.

【図16】本発明の他の実施例の動作を説明するための
フローチャートである。
FIG. 16 is a flowchart for explaining the operation of another embodiment of the present invention.

【図17】本発明の一実施例の本件発明者の実験による
移動体が直線の教示経路47をたどる状態を示す図であ
る。
FIG. 17 is a diagram showing a state in which a moving object follows a straight teaching path 47 in an experiment of the present inventor of one embodiment of the present invention.

【図18】本件発明者の他の実験結果を示し、教示経路
52が曲線経路であるときの状態を示す図である。
FIG. 18 is a view showing another experimental result of the present inventor and showing a state when the teaching path 52 is a curved path.

【図19】移動経路が長距離であるときにおける本件発
明者の長距離自律走行シュミレーション結果を示す図で
ある。
FIG. 19 is a diagram showing a result of a long-distance autonomous traveling simulation of the present inventor when the moving route is a long distance.

【図20】本発明の他の実施例の移動体1の簡略化した
平面図である。
FIG. 20 is a simplified plan view of a moving body 1 according to another embodiment of the present invention.

【図21】図20に示される実施例の移動体1のセンサ
M1〜M3を示す簡略化した平面図である。
21 is a simplified plan view showing sensors M1 to M3 of the moving body 1 of the embodiment shown in FIG.

【図22】図20および図21に示される実施例の電気
的構成を示すブロック図である。
FIG. 22 is a block diagram showing an electrical configuration of the embodiment shown in FIGS. 20 and 21.

【図23】図22の処理回路62の動作を説明するため
のフローチャートである。
FIG. 23 is a flowchart illustrating an operation of the processing circuit 62 of FIG. 22;

【図24】図20〜図23の実施例における本件発明者
の実験結果の障害物回避シュミレーション結果を示す図
である。
24 is a diagram showing a result of an obstacle avoidance simulation as a result of an experiment performed by the present inventor in the examples of FIGS. 20 to 23. FIG.

【図25】本発明のさらに他の実施例の簡略化した構成
とその経路を説明するための図である。
FIG. 25 is a diagram for explaining a simplified configuration and a route thereof according to still another embodiment of the present invention.

【図26】図27における実施例の動作を説明するため
のフローチャートである。
FIG. 26 is a flowchart for explaining the operation of the embodiment in FIG. 27;

【図27】本発明の他の実施例の移動体1の簡略化した
平面図である。
FIG. 27 is a simplified plan view of a moving body 1 according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 移動体 2 移動体本体 3,4 前輪 5,6 後輪 7 前端部 8 旋回軸線 9 雲台 10 カメラ 15 車両回転中心 16,17 ランドマーク 18 経路 19 画像処理回路 20 メモリ 21 処理回路 22 旋回駆動源 23 操舵手段 63 障害物 M1〜M3 障害物検知センサ Reference Signs List 1 moving body 2 moving body main body 3, 4 front wheel 5, 6 rear wheel 7 front end 8 turning axis 9 pan head 10 camera 15 vehicle rotation center 16, 17 landmark 18 route 19 image processing circuit 20 memory 21 processing circuit 22 turning drive Source 23 Steering means 63 Obstacle M1-M3 Obstacle detection sensor

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大築 康生 千葉県野田市二ツ塚118番地 川崎重工 業株式会社 野田工場内 (72)発明者 永井 信尚 兵庫県明石市川崎町1番1号 川崎重工 業株式会社 明石工場内 (56)参考文献 特開 平2−244206(JP,A) 特開 昭59−74905(JP,A) (58)調査した分野(Int.Cl.6,DB名) G05D 1/02 G06T 1/00 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Yasuo Otsuki 118 Futatsuka, Noda City, Chiba Prefecture, Kawasaki Heavy Industries, Ltd. Noda Plant (72) Inventor Nobuo Nagai 1-1-1, Kawasaki-cho, Akashi-shi, Hyogo Prefecture Kawasaki Heavy Industries (56) References JP-A-2-244206 (JP, A) JP-A-59-74905 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G05D 1/02 G06T 1/00

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 教示時に、予め定める経路に沿って移動
体を走行して、固定位置に設けてある少なくとも2つの
ランドマークを、その移動体に角変位可能に設けられた
カメラを固定された状態で、そのカメラによって単一の
視野内で撮像し、 ランドマーク毎に、カメラの直交座標系における一方の
軸V方向と他方の軸H方向との各座標値を対応させて、
座標値の組合せを、メモリにストアしておき、走行時
に、カメラによって前記ランドマークを単一の視野内で
撮像し、 撮像して得られた一方のランドマークの前記一方軸V方
向の座標値v1が同一であるメモリのストア内容の座標
値vt1を読出して検索し、 一方のランドマークの検索した座標値vt1を含む前記
組合せにおける他方のランドマークの前記一方軸V方向
の座標値vt2を検索し、 この検索した他方のランドマークの座標値vt2と、カ
メラによって撮像した他方のランドマークの前記一方軸
V方向の座標値v2とが一致するように、カメラを角変
位し、 次に、撮像した一方のランドマークの他方軸H方向の座
標値h1が前記組合せにおける一方のランドマークの他
方軸H方向の座標値ht1に一致するように、かつ撮像
した他方のランドマークの他方軸H方向の座標値h2が
他方のランドマークの他方軸H方向の座標値ht2に一
致するように、操舵することを特徴とする移動体の走行
制御方法。
At the time of teaching, a moving body is moved along a predetermined route, and a camera provided to be capable of angularly displacing at least two landmarks provided at a fixed position is fixed to the moving body. In this state, an image is taken by the camera within a single field of view, and for each landmark, the respective coordinate values of one axis V direction and the other axis H direction in the camera's orthogonal coordinate system are associated with each other,
The combination of the coordinate values is stored in a memory, and when the vehicle is running, the landmark is imaged in a single field of view by a camera, and the coordinate value of one of the landmarks obtained by imaging in the one-axis V direction is obtained. The coordinate value vt1 of the store content of the memory having the same v1 is read and searched, and the coordinate value vt2 in the one axis V direction of the other landmark in the combination including the searched coordinate value vt1 of one landmark is searched. Then, the camera is angularly displaced so that the coordinate value vt2 of the other landmark retrieved matches the coordinate value v2 of the other landmark imaged by the camera in the one-axis V direction. The image is taken such that the coordinate value h1 of the one landmark in the other axis H direction matches the coordinate value ht1 of the one landmark in the other axis H direction in the combination. A traveling control method for a moving body, wherein the vehicle is steered such that a coordinate value h2 of the other landmark in the other axis H direction coincides with a coordinate value ht2 of the other landmark in the other axis H direction.
【請求項2】 前記操舵時に、 撮像した一方のランドマークの他方軸H方向の座標値h
1と、撮像した他方のランドマークの他方軸H方向の座
標値h2との中心点と、 前記組合せにおける一方のランドマークの他方軸H方向
の座標値ht1と、前記組合せにおける他方のランドマ
ークの他方軸H方向の座標値ht2との中心点との差Δ
hが零になるように、操舵することを特徴とする請求項
1記載の移動体の走行制御方法。
2. A coordinate value h in the direction of the other axis H of one of the landmarks imaged during the steering.
1, a center point between the imaged other landmark and the coordinate value h2 in the other axis H direction, the one landmark in the combination, the coordinate value ht1 in the other axis H direction, and the other landmark in the combination. The difference Δ from the center value with the coordinate value ht2 in the other axis H direction
The traveling control method for a moving body according to claim 1, wherein the steering is performed so that h becomes zero.
【請求項3】 移動体には、教示経路またはその付近の
障害物を検出する複数のセンサを設け、 各センサの出力の組合せパターンに個別的に対応した予
め定める操舵態様で操舵することを特徴とする請求項1
または2記載の移動体の走行制御方法。
3. The moving body is provided with a plurality of sensors for detecting obstacles in or near the teaching path, and the moving body is steered in a predetermined steering mode individually corresponding to a combination pattern of outputs of the sensors. Claim 1
Or the traveling control method of the moving object according to 2.
【請求項4】 教示時に、予め定める経路に沿って移動
体を走行して、固定位置に設けてある少なくとも2つの
ランドマークを、その移動体に固定されたカメラによっ
て単一の視野内で撮像し、 ランドマーク毎にカメラの直交座標系における一方の軸
V方向と他方の軸H方向との各座標値を対応させて構成
される各ランドマーク毎の座標値の組合せを、前記経路
に沿ってメモリにストアしておき、 走行時に、カメラによって前記ランドマークを単一の視
野内で撮像し、 撮像して得られた一方のランドマークの前記一方軸V方
向の座標値v1が同一であるメモリのストア内容の座標
値vt1を読出して検索し、 前記一方のランドマークの検索した座標値vt1を含む
前記組合せにおける他方のランドマークの前記一方軸V
方向の座標値vt2をメモリのストア内容から検索し、 この検索した前記他方のランドマークの座標値vt2
と、カメラによって撮像した前記他方のランドマークの
前記一方軸V方向の座標値v2と一致するように、移動
体の向きのずれを、操舵によって修正し、 次に、撮像した前記一方のランドマークの前記他方の軸
H方向の座標値h1が、メモリにストアされた前記組合
せにおける前記一方のランドマークの前記他方の軸H方
向の座標値ht1に一致するように、かつ撮像した前記
他方のランドマークの前記他方の軸H方向の座標値h2
が、メモリにストアされた前記組合せにおける前記他方
のランドマークの前記他方の軸H方向の座標値ht2に
一致するように、移動体の位置ずれを操舵によって修正
することを特徴とする移動体の走行制御方法。
4. During teaching, the mobile unit travels along a predetermined route and images at least two landmarks provided at fixed positions in a single field of view by a camera fixed to the mobile unit. Then, a combination of coordinate values for each landmark, which is formed by associating each coordinate value of one axis V direction and the other axis H direction in the orthogonal coordinate system of the camera for each landmark, is set along the path. When the vehicle is running, the landmark is imaged in a single field of view by a camera, and the coordinate value v1 in the one-axis V direction of one of the landmarks obtained by imaging is the same. The coordinate value vt1 of the contents stored in the memory is read and searched, and the one axis V of the other landmark in the combination including the searched coordinate value vt1 of the one landmark is read.
The direction coordinate value vt2 is retrieved from the stored contents of the memory, and the retrieved coordinate value vt2 of the other landmark is retrieved.
And correcting the deviation of the direction of the moving body by steering so as to match the coordinate value v2 of the other landmark imaged by the camera in the one-axis V direction. Next, the one landmark imaged The coordinate value h1 of the other land H in the other axis H direction of the one landmark in the combination stored in the memory so as to match the coordinate value ht1 of the other land mark in the other axis H direction. Coordinate value h2 of the mark in the other axis H direction
Is adapted to correct the displacement of the moving body by steering so as to coincide with the coordinate value ht2 of the other landmark in the other axis H direction in the combination stored in the memory. Travel control method.
【請求項5】 (a)移動体と、 (b)移動体に設けられ、操舵するための操舵手段と、 (c)移動体に搭載され、縦の軸線まわりに角変位可能
に設けられるカメラと、 (d)カメラを、前記縦の軸線まわりに角変位駆動する
角変位駆動手段と、 (e)メモリであって、 移動体にカメラを固定した状態で、予め定める経路に沿
って移動体を走行したとき、固定位置に設けてある少な
くとも2つのランドマークをカメラによって単一の視野
内で撮像して得られる座標値の組合せをストアし、 この座標値の組合せは、各ランドマーク毎に、カメラの
直交座標系における一方の軸V方向と他方の軸H方向と
の各座標値を対応させてあるメモリと、 (f)制御手段であって、カメラの出力に応答し、 カメラによって撮像して得られた一方のランドマークの
前記一方軸V方向の座標値v1が同一であるメモリのス
トア内容の座標値vt1を読出して検索し、 一方のランドマークの検索した座標値vt1を含む前記
組合せにおける他方のランドマークの前記一方軸V方向
の座標値vt2を検索し、 この検索した他方のランドマークの座標値vt2と、カ
メラによって撮像した他方のランドマークの前記一方軸
V方向の座標値v2とが一致するように、角変位駆動手
段を動作させてカメラを角変位し、 次に、撮像した一方のランドマークの他方軸H方向の座
標値h1が前記組合せにおける一方のランドマークの他
方軸H方向の座標値ht1に一致するように、かつ、撮
像した他方のランドマークの他方軸H方向の座標値h2
が他方のランドマークの他方軸H方向の座標値ht2に
一致するように、操舵手段を動作させて操舵する制御手
段とを含むことを特徴とする移動体の走行制御装置。
5. A moving body, (b) steering means provided on the moving body for steering, and (c) a camera mounted on the moving body and capable of being angularly displaced around a vertical axis. (D) angular displacement driving means for driving the camera angularly displaced around the vertical axis; and (e) a memory, wherein the camera is fixed to the movable body and the movable body is moved along a predetermined path. When the vehicle travels, a combination of coordinate values obtained by imaging at least two landmarks provided at fixed positions in a single field of view by a camera is stored, and the combination of coordinate values is stored for each landmark. A memory in which coordinate values of one axis V direction and the other axis H direction in the orthogonal coordinate system of the camera are associated with each other; and (f) control means, which responds to the output of the camera and captures an image by the camera. One land obtained The coordinate value vt1 of the store content of the memory having the same coordinate value v1 in the one-axis V direction of the mark is read and searched, and the other landmark in the combination including the searched coordinate value vt1 of one landmark is read. The coordinate value vt2 in the one-axis V direction is searched, and the coordinate value vt2 of the other landmark searched for is made coincident with the coordinate value v2 in the one-axis V direction of the other landmark captured by the camera. Then, the camera is angularly displaced by operating the angular displacement driving means. Next, the coordinate value h1 of one of the landmarks in the other axis H direction in the combination is the coordinate value ht1 of one of the landmarks in the other axis H direction in the combination. And the coordinate value h2 of the other captured landmark in the other axis H direction.
And a control means for operating the steering means so as to make the same as the coordinate value ht2 of the other landmark in the other axis H direction.
【請求項6】 制御手段は、操舵手段によって、 前記操舵時に、 撮像した一方のランドマークの他方軸H方向の座標値h
1と、撮像した他方のランドマークの他方軸H方向の座
標値h2との中心点と、 前記組合せにおける一方のランドマークの他方軸H方向
の座標値ht1と、前記組合せにおける他方のランドマ
ークの他方軸H方向の座標値ht2との中心点との差Δ
hが零になるように、操舵することを特徴とする請求項
5記載の移動体の走行制御装置。
6. The control means controls the coordinate value h in the direction of the other axis H of one of the landmarks imaged by the steering means during the steering.
1, a center point between the imaged other landmark and the coordinate value h2 in the other axis H direction, the one landmark in the combination, the coordinate value ht1 in the other axis H direction, and the other landmark in the combination. The difference Δ from the center value with the coordinate value ht2 in the other axis H direction
6. The travel control device for a moving body according to claim 5, wherein the steering is performed so that h becomes zero.
【請求項7】 移動体には、 移動体の回転中心を通る軸線上で左前方の障害物を検出
する第1センサM1と、 移動体の回転中心を通る軸線上で前方の障害物を検出す
る第2センサM2と、 移動体の回転中心を通る軸線上で右前方の障害物を検出
する第3センサM3とが設けられ、 障害物回避用制御手段は、第1〜第3センサの出力に応
答し、 第1または第3センサが障害物を検出したとき、右また
は左へ予め定める第1角度だけ向きをそれぞれ変えるよ
うに操舵手段によって操舵し、 第2センサが障害物を検出し、かつ第1および第3セン
サが障害物を検出していないとき、右または左へ第1角
度よりも大きい第2角度だけ向きを変えるように操舵手
段によって操舵することを特徴とする請求項5または6
記載の移動体の走行制御装置。
7. A first sensor M1 for detecting a left front obstacle on an axis passing through the rotation center of the moving body, and detecting a front obstacle on an axis passing through the rotation center of the moving body. And a third sensor M3 for detecting a right front obstacle on an axis passing through the center of rotation of the moving body. The obstacle avoidance control means includes an output of the first to third sensors. When the first or third sensor detects an obstacle, steering is performed by the steering means so as to change the direction to the right or left by a predetermined first angle, respectively, and the second sensor detects the obstacle, 6. The steering device according to claim 5, wherein when the first and third sensors do not detect an obstacle, the steering unit steers to the right or left by a second angle larger than the first angle. 6
A travel control device for a moving object according to claim 1.
【請求項8】 (a)移動体と、 (b)移動体に設けられ、操舵するための操舵手段と、 (c)移動体に固定されるカメラと、 (d)メモリであって、 移動体にカメラを固定した状態で、予め定める経路に沿
って移動体を走行したとき、固定位置に設けてある少な
くとも2つのランドマークをカメラによって単一の視野
内で撮像して得られる各ランドマーク毎の座標値の組合
せを、前記経路に沿ってストアし、 この座標値の組合せは、各ランドマーク毎に、カメラの
直交座標系における一方の軸V方向と他方の軸H方向と
の各座標値を対応させてあるメモリと、 (e)制御手段であって、カメラの出力に応答し、 カメラによって撮像して得られた一方のランドマークの
前記一方軸V方向の座標値v1が同一であるメモリのス
トア内容の座標値vt1を読出して検索し、 前記一方のランドマークの検索した座標値vt1を含む
前記組合せにおける前記他方のランドマークの前記一方
軸V方向の座標値vt2をメモリのストア内容から検索
し、 この検索した前記他方のランドマークの座標値vt2
と、カメラによって撮像した前記他方のランドマークの
前記一方の軸V方向の座標値v2とが一致するように、
操舵手段を動作させて移動体の向きのずれを修正し、 次に、撮像した前記一方のランドマークの前記他方の軸
H方向の座標値h1が、メモリにストアされた前記組合
せにおける前記一方のランドマークの前記他方の軸H方
向の座標値ht1に一致するように、かつ、撮像した前
記他方のランドマークの前記他方の軸H方向の座標値h
2が、メモリにストアされた前記組合せにおける前記他
方のランドマークの前記他方の軸H方向の座標値ht2
に一致するように、操舵手段を動作させて操舵すること
によって移動体の位置ずれを修正する制御手段とを含む
ことを特徴とする移動体の走行制御装置。
8. (a) a moving body, (b) steering means provided on the moving body for steering, (c) a camera fixed to the moving body, and (d) a memory, Each landmark obtained by imaging at least two landmarks provided at a fixed position in a single field of view by a camera when the mobile body travels along a predetermined route with the camera fixed to the body. A combination of coordinate values for each of the landmarks is stored along the path, and the combination of the coordinate values is stored in each of the landmarks in the coordinate system of one axis V direction and the other axis H direction in the orthogonal coordinate system of the camera. And (e) control means for responding to the output of the camera, wherein one of the landmarks obtained by imaging with the camera has the same coordinate value v1 in the one-axis V direction. Store contents of a certain memory The value vt1 is read and searched, and the coordinate value vt2 in the one-axis V direction of the other landmark in the combination including the searched coordinate value vt1 of the one landmark is searched from the contents stored in the memory. Coordinate value vt2 of the other landmark
And the coordinate value v2 in the direction of the one axis V of the other landmark imaged by the camera matches,
The steering unit is operated to correct the deviation of the direction of the moving body. Next, the coordinate value h1 of the one landmark imaged in the direction of the other axis H in the one of the combinations in the combination stored in the memory is stored. The coordinate value h in the direction of the other axis H of the other landmark imaged so as to match the coordinate value ht1 in the direction of the other axis H of the landmark.
2 is a coordinate value ht2 of the other landmark in the other axis H direction in the combination stored in the memory.
Control means for correcting the displacement of the moving body by operating and steering the steering means so as to coincide with the following.
JP7023205A 1995-02-10 1995-02-10 Traveling control method and apparatus for mobile object Expired - Fee Related JP2920352B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7023205A JP2920352B2 (en) 1995-02-10 1995-02-10 Traveling control method and apparatus for mobile object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7023205A JP2920352B2 (en) 1995-02-10 1995-02-10 Traveling control method and apparatus for mobile object

Publications (2)

Publication Number Publication Date
JPH08221123A JPH08221123A (en) 1996-08-30
JP2920352B2 true JP2920352B2 (en) 1999-07-19

Family

ID=12104174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7023205A Expired - Fee Related JP2920352B2 (en) 1995-02-10 1995-02-10 Traveling control method and apparatus for mobile object

Country Status (1)

Country Link
JP (1) JP2920352B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE519481C2 (en) * 2000-06-22 2003-03-04 Tts Ships Equipment Ab Device for Ro-Ro vessels
JP3758628B2 (en) * 2002-09-25 2006-03-22 松下電工株式会社 Autonomous mobile device
JP4271161B2 (en) 2005-03-24 2009-06-03 株式会社東芝 Robot device, method of turning robot device, and program
JP4709101B2 (en) * 2006-09-01 2011-06-22 キヤノン株式会社 Automatic tracking camera device
KR100773271B1 (en) * 2006-10-25 2007-11-05 전자부품연구원 Method for localization of mobile robot with a single camera
JP5024560B2 (en) * 2008-12-11 2012-09-12 株式会社安川電機 Moving body
JP5506339B2 (en) * 2009-11-19 2014-05-28 三菱重工業株式会社 Direction control device and direction control method
JP2017058829A (en) * 2015-09-15 2017-03-23 株式会社オプティム Uninhabited airborne vehicle control system and uninhabited airborne vehicle control method
JP6275202B2 (en) * 2016-06-23 2018-02-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Unmanned aerial vehicle, unmanned aircraft control method, and unmanned aircraft control program
KR101882319B1 (en) * 2016-10-21 2018-07-27 포항공과대학교 산학협력단 Underwater image processing device for trajectory backtracking and method there of
CN106371442B (en) * 2016-11-02 2019-03-19 河海大学常州校区 A kind of mobile robot control method based on the transformation of tensor product model
CN107146475B (en) * 2017-06-06 2023-07-18 中国民用航空总局第二研究所 Ground service system, airborne guiding system and aircraft approach landing guiding system
CN107424440B (en) * 2017-06-06 2023-07-18 中国民用航空总局第二研究所 Aircraft approach landing monitoring system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0366350A3 (en) * 1988-10-25 1991-05-22 Tennant Company Guiding an unmanned vehicle by reference to overhead features

Also Published As

Publication number Publication date
JPH08221123A (en) 1996-08-30

Similar Documents

Publication Publication Date Title
Royer et al. Outdoor autonomous navigation using monocular vision
US9244463B2 (en) Automated guided vehicle and method of operating an automated guided vehicle
JP2920352B2 (en) Traveling control method and apparatus for mobile object
KR102305333B1 (en) Driving assistance methods, driving assistance systems and vehicles
van der Zwaan et al. Visual station keeping for floating robots in unstructured environments
Shen et al. Localization through fusion of discrete and continuous epipolar geometry with wheel and IMU odometry
CN110673608A (en) Robot navigation method
Palomeras et al. Vision-based localization and mapping system for AUV intervention
JP2003015739A (en) External environment map, self-position identifying device and guide controller
Lopez-Nicolas et al. Nonholonomic epipolar visual servoing
US20230419531A1 (en) Apparatus and method for measuring, inspecting or machining objects
Park et al. Model-referenced pose estimation using monocular vision for autonomous intervention tasks
Cárdenas et al. Vision-based control of a mobile base and on-board arm
van der Zwaan et al. Real-time vision-based station keeping for underwater robots
Lopez-Nicolas et al. Switched homography-based visual control of differential drive vehicles with field-of-view constraints
Asada et al. Representing global world of a mobile robot with relational local maps
CN109459046B (en) Positioning and navigation method of suspension type underwater autonomous vehicle
CN111290396A (en) Automatic control method for unmanned ship for pipeline detection
CN110722547B (en) Vision stabilization of mobile robot under model unknown dynamic scene
Gava et al. Nonlinear control techniques and omnidirectional vision for team formation on cooperative robotics
Konoplin et al. System for identifying target objects to perform manipulative operations by unmanned underwater vehicles
Hwang et al. Robust 2D map building with motion-free ICP algorithm for mobile robot navigation
Petrov et al. Vision-based line tracking control for nonholonomic differential-drive mobile robots
CN115836262A (en) Trajectory planning method and motion control method based on images and mobile machine using methods
Marchand et al. Controlling the manipulator of an underwater ROV using a coarse calibrated pan/tilt camera

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees