JP2998965B2 - Travel control device for mobile vehicles - Google Patents

Travel control device for mobile vehicles

Info

Publication number
JP2998965B2
JP2998965B2 JP1224687A JP22468789A JP2998965B2 JP 2998965 B2 JP2998965 B2 JP 2998965B2 JP 1224687 A JP1224687 A JP 1224687A JP 22468789 A JP22468789 A JP 22468789A JP 2998965 B2 JP2998965 B2 JP 2998965B2
Authority
JP
Japan
Prior art keywords
recognition
signal
obstacle
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1224687A
Other languages
Japanese (ja)
Other versions
JPH0390916A (en
Inventor
弘行 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP1224687A priority Critical patent/JP2998965B2/en
Publication of JPH0390916A publication Critical patent/JPH0390916A/en
Application granted granted Critical
Publication of JP2998965B2 publication Critical patent/JP2998965B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、自律的に走行を制御する移動車の走行制御
装置に関し、詳しくは、画像センサ系と距離センサ系と
いう2つの異なるセンサ系による障害物の認識をファジ
ー推論により融合して認識精度を高めるために改良に関
する。
Description: TECHNICAL FIELD The present invention relates to a traveling control device for a mobile vehicle that controls traveling autonomously, and more particularly, to a traveling control device using two different sensor systems, an image sensor system and a distance sensor system. The present invention relates to an improvement for improving recognition accuracy by fusing obstacle recognition by fuzzy inference.

(従来の技術) 近年において、障害物を自律的に回避して走行する移
動車が種々提案されている。
(Prior Art) In recent years, various mobile vehicles that travel while autonomously avoiding obstacles have been proposed.

このような自律走行制御においては、先ず障害物の位
置、大きさ、形状等を認識し、これらの情報に基づい
て、個々の障害物に対応した回避行動を行なうようにな
っている。
In such autonomous traveling control, first, the position, size, shape, and the like of an obstacle are recognized, and an avoidance action corresponding to each obstacle is performed based on the information.

自律走行車の技術として、例えば、特開昭64−26913
号がある。この技術は、障害物を検出すると、障害物を
含む領域を障害物領域帯として走行路の一方の縁に沿っ
て設定し、残りの走行路を自車の仮想の走行路とし、こ
の仮想走行路に対して自車の走行制御を行なうというも
のである。この仮想走行路における走行制御には、ファ
ジー推論が使われている。
As an autonomous vehicle technology, for example, Japanese Patent Application Laid-Open No. 64-26913
There is a number. In this technology, when an obstacle is detected, an area including the obstacle is set along one edge of the travel path as an obstacle area zone, and the remaining travel path is set as a virtual travel path of the own vehicle. The running control of the own vehicle is performed on the road. Fuzzy inference is used for traveling control on this virtual traveling road.

この特開昭の技術では、外界の認識には、カメラと、
超音波センサと、レーザレーダとが使われている。上記
仮想走行路の設定、そして、その仮想走行路における走
行制御にはカメラからの画像が用いられる。一方、超音
波センサやレーザレーダからの出力はフェールセーフ制
御に用いられている。
In the technology of the Japanese Patent Application Laid-Open No.
An ultrasonic sensor and a laser radar are used. The image from the camera is used for the setting of the virtual traveling path and the traveling control on the virtual traveling path. On the other hand, outputs from the ultrasonic sensor and the laser radar are used for fail-safe control.

(発明が解決しようとする課題) 即ち、この特開昭64−26913号では、仮想走行路にお
ける走行制御には、フアジー推論が使われているもの
の、フエールセーフのための別の制御系が並列に作動し
ていて、緊急時には、フアジー推論の走行制御が停止さ
れて、それに代って、フエールセーフ制御が作動すると
いうものである。
(Problems to be Solved by the Invention) That is, in JP-A-64-26913, although fuzzy inference is used for traveling control on a virtual traveling road, another control system for fail-safe is provided in parallel. In an emergency, the travel control of the fuzzy inference is stopped, and the fail-safe control is activated instead.

カメラ等の視覚系には暗視領域がつきものであり、そ
の暗視領域を補うために超音波センサを用いる必要があ
る。しかし、カメラ等の視覚系と超音波センサ等の聴覚
系とでは、センサ出力自体が異なるために、同一判断基
準を用いて評価することは極めて困難である。そのため
に、特開昭64−26913号のように、折角、視覚系と聴覚
系とを混在して外界認識を行なっても、外界認識は、こ
の2つの系の切り替えを行なった結果の、いずれか一方
の認識にのみ依存して行わざるを得ないのである。
A visual system such as a camera has a night vision region, and it is necessary to use an ultrasonic sensor to supplement the night vision region. However, it is extremely difficult to evaluate the visual system such as a camera and the auditory system such as an ultrasonic sensor using the same criterion because the sensor output itself is different. For this reason, as disclosed in Japanese Patent Application Laid-Open No. 64-26913, even if the external world recognition is performed by mixing the visual system and the auditory system, the external world recognition will not be the result of switching between the two systems. It has to rely on only one of them.

そこで、本発明は、異なる外界認識信号から夫々の外
界認識結果を得、この2つの異なる外界認識結果に基づ
いて走行制御を行う際に、従来のように、切り替え走行
制御を行なわずに、この異なる2つの外界認識結果をフ
ァジー推論により融合して障害物認識を行うことのでき
る移動車の走行制御装置を提案するものである。
Therefore, the present invention obtains the respective external recognition results from the different external recognition signals, and performs the running control based on the two different external recognition results without performing the switching driving control as in the related art. An object of the present invention is to propose a traveling control device for a mobile vehicle capable of performing obstacle recognition by fusing two different external recognition results by fuzzy inference.

(課題を達成するための手段及び作用) 上記課題を達成するための、本発明の移動車の走行制
御装置は、 外界の画像を表す第1の信号を生成する第1の信号生
成手段と、 前記第1の信号を入力して、外界認識を行なう第1の
認識手段と、 前記第1の信号生成手段とは独立して、外界の物体と
の実距離を示す第2の信号を生成する第2の信号生成手
段と、 この第2の信号を入力し、外界認識を行なう第2の認
識手段と、 上記2つの認識手段の認識結果の夫々に対して同一の
ファジールールを適用するファジー推論処理を行って自
車の走行軌道を推論する推論手段と、 この推論結果に基づいて自車の走行を制御する走行制
御手段とを具備したことを特徴とする。
(Means and Actions for Achieving the Object) To achieve the above object, a traveling control device for a mobile vehicle according to the present invention includes: a first signal generation unit that generates a first signal representing an image of an external world; A first recognition unit that receives the first signal and performs external world recognition, and generates a second signal indicating an actual distance to an external object independently of the first signal generation unit. A second signal generation unit, a second recognition unit that receives the second signal and performs external recognition, and a fuzzy inference that applies the same fuzzy rule to each of the recognition results of the two recognition units. It is provided with inference means for performing processing and inferring the traveling trajectory of the own vehicle, and traveling control means for controlling traveling of the own vehicle based on the inference result.

第1の信号は外界全体の画像信号であり、第2の信号
は特定の物体までの距離信号である。各信号生成手段は
信号の特質に応じて設定されるべきである。そこで、本
発明の好適な一態様である請求項2に拠れば、前記第1
の信号生成手段は、中距離または遠距離の視野角を有す
る画像を表す前記第1の信号を生成するように設定さ
れ、 前記第2の信号生成手段は、近距離にある物体までの
距離を示す前記第2の信号を生成するように設定されて
いる。
The first signal is an image signal of the entire outside world, and the second signal is a distance signal to a specific object. Each signal generation means should be set according to the characteristics of the signal. Therefore, according to claim 2 which is a preferred aspect of the present invention, the first
Signal generating means is configured to generate the first signal representing an image having a middle or long distance viewing angle, and the second signal generating means determines a distance to an object at a short distance. The second signal shown is set to be generated.

各信号生成手段が上記のように設定されていれば、本
発明の好適な一態様である請求項3に拠れば、第1の認
識手段では、障害物までの距離が、画像中での走行可能
領域の重心位置という情報に変換される。直接的に障害
物までの距離を求めるよりも、画像中での走行可能領域
の重心位置を求める方が高速に行うことができ、ファジ
ー推論を高速に行うことができる。
According to a third aspect of the present invention, which is a preferred aspect of the present invention, if each of the signal generating means is set as described above, the first recognizing means determines that the distance to the obstacle is equal to the travel distance in the image. It is converted into information on the position of the center of gravity of the possible area. Finding the position of the center of gravity of the travelable area in the image can be performed at a higher speed than directly calculating the distance to the obstacle, and fuzzy inference can be performed at a higher speed.

(実施例) 以下添付の第1図を参照して、本発明の好適な実施例
の原理的な構成を説明する。実施例の原理的な構成は、
この第1図に示すように、外界認識のための第1の信号
を入力して、外界認識を行なう第1の認識手段と、外界
認識のための信号であって、前記第1の信号とは特性の
異なる第2の信号を入力し、外界認識を行なう第2の認
識手段と、上記2つの認識手段の認識結果に対してフア
ジー推論処理を行なう推論手段と、この推論結果に基づ
いて自車の走行を制御する走行制御手段とを具備したこ
とを特徴とする。
(Embodiment) The principle configuration of a preferred embodiment of the present invention will be described below with reference to the attached FIG. The basic configuration of the embodiment is
As shown in FIG. 1, first recognition means for inputting a first signal for external world recognition and performing external world recognition, and a signal for external world recognition, wherein the first signal is Is a second recognizing means for inputting second signals having different characteristics and recognizing the outside world, inference means for performing fuzzy inference processing on the recognition results of the two recognizing means, and Running control means for controlling the running of the vehicle.

フアジールールにより、少なくとも2つ以上の異なっ
た信号に基づいた夫々の認識結果を融合して走行軌道が
推論されるので、柔軟な判断と滑らかな走行が実現す
る。
According to the fuzzy rule, the traveling trajectory is inferred by fusing each recognition result based on at least two or more different signals, so that flexible judgment and smooth traveling are realized.

以下、第2図以下の図面を参照して、本発明を、モー
タ駆動の車両に適用した具体的な実施例を用いてさらに
詳細に説明する。
Hereinafter, the present invention will be described in more detail using a specific embodiment applied to a motor-driven vehicle with reference to FIGS.

〈ハードウエア構成〉 第2図は本実施例の走行制御装置のハードウエア構成
を示すブロツク図である。また、第3A図は、本実施例の
走行制御装置を搭載した車両100及び各センサの位置関
係を表わすための平面図、第3B図は同じく側面図であ
る。
<Hardware Configuration> FIG. 2 is a block diagram showing a hardware configuration of the travel control device of the present embodiment. FIG. 3A is a plan view showing the positional relationship between the vehicle 100 equipped with the travel control device of the present embodiment and each sensor, and FIG. 3B is a side view of the same.

これらの図において、視覚センサ系はカメラ1からな
る。聴覚センサ系は、“U"とマークされた8つの超音波
センサ8(8aRF,8bRF,8aLF,8bLF,8aRS,8bRS,8aLS,8
bLS)からなる。これらのセンサ出力は、フアジー推論
のために、I/Oコントローラ6を介してデータ処理用の
コンピユータ4に送られる。
In these figures, the visual sensor system comprises a camera 1. The auditory sensor system comprises eight ultrasonic sensors 8 (8a RF , 8b RF , 8a LF , 8b LF , 8a RS , 8b RS , 8a LS , 8
b LS ). These sensor outputs are sent to a data processing computer 4 via an I / O controller 6 for fuzzy inference.

外界の画像はカラーのCCDカメラ1から取り込まれ、
フレームメモリ2に記憶される。メモリ2内の画像か
ら、画像処理専用プロセツサ5の支援により、コンピユ
ータ4が走行可能領域が抽出される。後述するように、
この走行可能領域の画像から重心位置およびその重心位
置の基準からの変位(後述のEL,ET)が検出される。
尚、コンピユータ4は市販のパーソナルコンピユータを
用い、画像処理用プロセツサ5は処理の高速化のために
データフロー駆動のパイプラインプロセツサLSIのボー
ドを用いた。
The image of the outside world is captured from the color CCD camera 1,
It is stored in the frame memory 2. A region in which the computer 4 can travel is extracted from the image in the memory 2 with the support of the processor 5 dedicated to image processing. As described below,
From the image of the travelable area, the position of the center of gravity and the displacement (EL, ET described later) of the center of gravity position from the reference are detected.
The computer 4 was a commercially available personal computer, and the image processing processor 5 was a data flow driven pipeline processor LSI board for speeding up the processing.

即ち、コンピユータ4は、上記8つの聴覚系のセンサ
出力と視覚系のCCDカメラの画像とから、フアジー推論
に従って走行軌道を推論生成するものである。推論され
た走行軌道はモータコントローラ11に出力され、このコ
ントローラ11が左右のモータ10R,10Lを駆動する。
That is, the computer 4 infers and generates a traveling trajectory from the eight sensor outputs of the auditory system and images of the visual CCD camera according to fuzzy inference. Inferred running track is output to the motor controller 11, the controller 11 drives the left and right motors 10 R, 10 L.

車両100には、4隅に1つずつ、“T"とマークされた
タツチセンサ7(7a〜7d)が装着され、前部と後部に
“I"とマークされた赤外線センサが装着されている。こ
れらのセンサは非常時のものであり、その出力が直接に
モータコントローラ11に入力されている。
The touch sensor 7 (7a to 7d) marked "T" is mounted on each of the four corners of the vehicle 100, and infrared sensors marked "I" are mounted on the front and rear. These sensors are for emergencies, and their outputs are directly input to the motor controller 11.

第3A図は、8つの超音波センサの配置を示す。8aRF,8
bRFのセンサは車体前部の右側領域を受け持つ組であ
る。8aLF,8bLFのセンサは車体前部の左側領域を受け持
つ組である。8aRS,8bRSのセンサは車体側部の右側領域
を受け持つ組である。8aLS,8bLSのセンサは車体側部の
左側領域を受け持つ組である。ここで、参照のために、
添字のRは右を、Lは左を、Fは前部を、Sは側部を指
す。センサ2つで一組としたのは精度を上げるためであ
る。そこで、車体前部の右側領域を受け持つ組のセンサ
8aRF,8bRFの出力をSRF、車体前部の左側領域を受け持つ
センサ8aLF,8bLFの出力をSLF、車体側部の右側領域を受
け持つセンサ8aRS,8bRSの出力をSLS、車体側部の左側領
域を受け持つセンサ8aLS,8bLSの出力をSRSとする。周知
のように、超音波センサが検出したエコー信号の到達時
間により、対象物までの距離が知れる。即ち、SRF,SLF,
SLS,SRSは障害物までの距離データとなる。
FIG. 3A shows an arrangement of eight ultrasonic sensors. 8a RF , 8
b The RF sensor is a group that covers the right area at the front of the vehicle. The sensors of 8a LF and 8b LF are sets that cover the left area at the front of the vehicle body. The sensor of 8a RS and 8b RS is a group that covers the right side area of the vehicle body side. The sensors of 8a LS and 8b LS are sets that cover the left side area of the vehicle body side. Where, for reference,
The subscripts R for right, L for left, F for front and S for side. The reason why one sensor is used as one set is to improve accuracy. Therefore, a set of sensors that cover the right area at the front of the vehicle body
The outputs of 8a RF and 8b RF are S RF , the sensors 8a LF and 8b LF output the left side area of the front of the vehicle body are S LF , and the sensors 8a RS and 8b RS output the right side area of the vehicle body are S LS. , sensor 8a LS responsible for the left side area of the vehicle body side portion, the output of 8b LS and S RS. As is well known, the distance to the target is known from the arrival time of the echo signal detected by the ultrasonic sensor. That is, S RF , S LF ,
S LS and S RS are distance data to the obstacle.

第3B図は、上述のカメラ1の撮像範囲15、超音波セン
サ8の検出範囲16の相違を説明するものである。車両前
方における検出範囲の相違を示すために、第3B図には、
8つの超音波センサのうち、前部にあるセンサのみが示
されている。第3B図において、カメラの撮像範囲は15で
あり、遠距離、中距離を撮像範囲とする。前部にある超
音波センサ8の検出範囲16は、主に中距離領域と近距離
領域である。このように本実施例における検出範囲を3
つに分割したのは次の理由による。即ち、視覚系のセン
サは解像度は高いという長所を有するものの、障害物の
認識には高度の処理が必要であり、また暗視領域が存在
するという短所を有する。一方、聴覚系のセンサは、解
像度は低く、また、遠距離の検出は困難であるという短
所を有するものの、中近距離で高い精度の障害検出が可
能であるという長所を有する。これらの長所が生かさ
れ、短所を補うようにしたのが、本実施例の各センサの
配列である。
FIG. 3B illustrates the difference between the imaging range 15 of the camera 1 and the detection range 16 of the ultrasonic sensor 8 described above. In order to show the difference in the detection range in front of the vehicle, FIG.
Of the eight ultrasonic sensors, only the front one is shown. In FIG. 3B, the imaging range of the camera is 15, and the long and middle distances are the imaging ranges. The detection range 16 of the ultrasonic sensor 8 at the front is mainly a middle distance area and a short distance area. Thus, the detection range in this embodiment is 3
The reason for dividing into two is as follows. That is, the visual sensor has the advantage of high resolution, but requires a high degree of processing to recognize an obstacle, and has the disadvantage of having a night vision region. On the other hand, the auditory system sensor has the disadvantages of low resolution and difficulty in detecting a long distance, but has the advantage of being able to detect a failure with high accuracy at a short distance. It is the arrangement of each sensor of the present embodiment that makes use of these advantages and compensates for the disadvantages.

〈障害物の認識〉 そして、本実施例の特徴は、上述のカメラセンサと超
音波センサとからの外界認識結果の出力を、本来を同じ
基準で判断して、走行軌道を推論するための処理を行な
うことは従来では不可能であった点を、これらの認識結
果をフアジー推論装置に統合することにより、可能なら
しめた点にある。本実施例の装置においては、走行環境
については何の知識も与えられていない。即ち、この走
行制御装置は低レベルの機能を有するのみで、装置自体
が実際に『見た』『聞いた』ものから判断を下すように
なっている。このことは、第4図を参照することにより
良く理解される。
<Obstacle Recognition> The feature of the present embodiment is a process for inferring the traveling trajectory by judging the output of the external recognition result from the above-described camera sensor and ultrasonic sensor based on the same standard. Is realized by integrating these recognition results into a fuzzy inference device. In the device of this embodiment, no knowledge is given about the driving environment. In other words, this travel control device has only low-level functions, and the device itself makes decisions based on what it actually "sees" and "hears". This can be better understood with reference to FIG.

第4図は、本制御装置装置のコンピユータ4における
処理機能をブロツクとして表現したものである。
FIG. 4 is a block diagram showing the processing functions in the computer 4 of the control device.

同図において、フアジー推論部25は、上記センサから
の認識結果に基づいて走行軌道を推論し、現在位置から
の、ステアリング変更角度ΔST、走行速度の増減量ΔV
をモータコントローラ11内のモータドライバ26に出力す
る。モータドライバ26は、ΔST,ΔVに基づいて、左右
のモータ10L,10Rの回転速度NL,NRとを算出し、これらモ
ータに出力する。モータの回転速度(車両速度V)は不
図示のセンサで検出されて、推論部25にフイードバツク
され、車両位置の更新に使われる。
In the figure, the fuzzy inference unit 25 infers a traveling trajectory based on the recognition result from the sensor, and calculates a steering change angle ΔST and a traveling speed increase / decrease ΔV from the current position.
Is output to the motor driver 26 in the motor controller 11. The motor driver 26 calculates the rotation speeds N L and N R of the left and right motors 10 L and 10 R based on ΔST and ΔV, and outputs them to these motors. The rotation speed of the motor (vehicle speed V) is detected by a sensor (not shown), fed back to the inference unit 25, and used for updating the vehicle position.

フアジー推論部25への入力は、4組の超音波センサか
らの近距離認識部24を介して得た距離データSRF,SLF,S
LS,SRSと、中遠距離認識部27が検出したデータEL(重心
の横方向変位),ET(重心の縦方向変位),A(走行可能
領域の面積)である。
The inputs to the fuzzy inference unit 25 are distance data S RF , S LF , S obtained from the four sets of ultrasonic sensors via the short distance recognition unit 24.
LS, (transverse displacement of the center of gravity) S RS and data EL that medium long-distance recognition unit 27 detects, ET (longitudinal displacement of the center of gravity), and A (the area of the travelable area).

中遠距離認識部27におけるデータ処理について説明す
る。検出部27では、視覚センサ1が得た画像から、「走
行可能領域」を抽出し、その領域の重心を検出し、さら
にその重心の基準からの変位EL,ETを検出するものであ
る。
The data processing in the middle and long distance recognition unit 27 will be described. The detection unit 27 extracts a “travelable area” from the image obtained by the visual sensor 1, detects the center of gravity of the area, and further detects displacements EL and ET of the center of gravity from the reference.

変位EL,ETの検出について説明する。 The detection of the displacements EL and ET will be described.

第5図は、障害物31が置かれた廊下30を移動車が走行
中に、カメラ1から取り込まれた像を示している。上記
走行可能路は、以下の手順で検出することがよい。
FIG. 5 shows an image captured from the camera 1 while the moving vehicle is traveling along the corridor 30 where the obstacle 31 is placed. The travelable road may be detected by the following procedure.

先ず、自車の属する平面と同じ平面上にあり、色相な
どが近い部分が抽出される。壁や障害物等は、走行路等
と色成分が異なることが多いためである。このとき、雑
音となる色エッジなどが余り立たないものを選ぶ。但
し、走行路の色成分が壁等の色成分と似通う場合もある
ことを想定し、走行路と垂直に交わっている部分は走行
可能領域から除くようにする。換言すれば、その垂直に
交わっている部分が走行可能領域の境界となる。
First, a part that is on the same plane as the plane to which the vehicle belongs and that has a similar hue or the like is extracted. This is because a wall, an obstacle, and the like often have different color components from the traveling road and the like. At this time, select a color edge having little noise such as a color edge. However, assuming that the color components of the traveling path may be similar to the color components of the wall or the like, a portion that intersects perpendicularly with the traveling path is excluded from the travelable area. In other words, the vertically intersecting portion becomes the boundary of the travelable area.

尚、初期状態においては、走行可能領域は自車の手前
に必ず存在することを前提している。その後、走行可能
領域の探索を継続していく過程で、新たに探索された走
行可能領域を併合していつて、走行可能領域を更新して
いく。但し、この探索においては、遠方の画像において
は、その情報量が少ないので、無限遠線よりも下方の領
域だけを探索領域とする。
In the initial state, it is assumed that the travelable area always exists before the own vehicle. Thereafter, in the process of continuing the search for the travelable area, the newly searched travelable area is merged, and the travelable area is updated. However, in this search, since the amount of information is small in a distant image, only a region below the infinity line is set as a search region.

第6図は、障害物がない場合の走行可能領域の一例を
示す。この例の走行路は、まつすぐな廊下である。この
ような走行路の走行可能領域は同図に示すように、三角
形の形状をしている。尚、第6図の例で走行可能領域を
三角形としたのは、走行路を直線路によつて代表させ、
近似することができるからである。第6図において、X0
Y0は無限遠にある消点のx方向、y方向座標を示し、X1
は自車のx方向位置である。ここで、フレームメモリの
空間の原点を第6図において0で示した。Gは三角形で
示された走行可能領域の重心である。走行路に障害物が
ない場合には、この走行可能領域の面積は最大となる。
第7図は、この走行路に障害物が遠方で現われた場合を
示す。前述の走行可能領域探索の手順によれば、障害物
が占める領域が、第6図の三角形の走行可能領域から削
除され、その面積が減少する。この場合、前方の障害物
は走行可能領域の上方で先ず現われ、その後、移動車が
障害物に接近するにつれ、障害物の画像は大きくなりな
がら下方に移動していく。このことを、走行可能領域の
重心位置の移動の観点から見れば、重心位置Gの画像内
での移動は、上方から下方に、障害物の接近に応じて移
動していく。換言すれば、重心Gの位置が障害物への接
近の度合の目安になる。そこで、重心位置Gを移動車の
速度制御を利用することができる。
FIG. 6 shows an example of a travelable area when there is no obstacle. The running path in this example is a straight corridor. The travelable area of such a traveling path has a triangular shape as shown in FIG. The reason why the travelable area is set to be a triangle in the example of FIG. 6 is that the travel road is represented by a straight road,
This is because they can be approximated. In FIG. 6, X 0
Y 0 indicates the x- and y-direction coordinates of the vanishing point at infinity, and X 1
Is the position of the own vehicle in the x direction. Here, the origin of the space of the frame memory is indicated by 0 in FIG. G is the center of gravity of the travelable area indicated by a triangle. When there are no obstacles on the travel path, the area of the travelable area becomes the maximum.
FIG. 7 shows a case where an obstacle appears at a long distance on this travel path. According to the above-described procedure for searching for a runnable area, the area occupied by the obstacle is deleted from the triangular runnable area in FIG. 6, and the area is reduced. In this case, the obstacle ahead appears first above the travelable area, and then, as the moving vehicle approaches the obstacle, the image of the obstacle moves downward while increasing in size. In view of this, from the viewpoint of the movement of the center of gravity of the travelable area, the movement of the center of gravity G in the image moves from above to below as the obstacle approaches. In other words, the position of the center of gravity G is a measure of the degree of approach to the obstacle. Therefore, the speed control of the moving vehicle can be used for the position G of the center of gravity.

この手法の特徴的な点は次のことにある。移動車が例
えば障害物に等速度で接近していく場合を想定すると、
遠方にある障害物の画像の面積は小さく、近いところに
ある画像の面積は大きい。一方、同じように、遠方の走
行路の幅は狭く、近いところの走行路の幅は大きい。従
つて、上述したように、重心を、走行路の画像から障害
物等を除去した走行可能領域の画像の重心とすれば、重
心の縦方向の位置は、障害物までの距離に依存する。従
来では、画像から障害物までの距離を認識する場合、画
像を三次元(または二次元空間)空間に変換して行なつ
ていた。本実施例の手法では、この変換処理が不要にな
り、速度制御が高速になる。
The features of this method are as follows. Assuming a case where a moving vehicle approaches an obstacle at a constant speed, for example,
The area of an image of a distant obstacle is small, and the area of an image of a nearby object is large. On the other hand, similarly, the width of the distant traveling road is narrow, and the width of the near traveling road is large. Therefore, as described above, if the center of gravity is the center of gravity of the image of the travelable area in which obstacles and the like have been removed from the image of the travel path, the vertical position of the center of gravity depends on the distance to the obstacle. Conventionally, when recognizing the distance from an image to an obstacle, the image is converted into a three-dimensional (or two-dimensional space) space. According to the method of the present embodiment, this conversion processing is not required, and the speed control becomes faster.

基準位置Rをどこに設定するかを説明する。周知のよ
うに、三角形の重心は、頂点(第6図の例では消点)と
底辺の中間点(第6図の例ではX1)を結ぶ線分上の、そ
の線分を頂点から2対1に比例配分した位置にある。ま
た、第6図の状態では、即ち、障害物がない状態での重
心Gの位置(G0とする)は、y軸方向では、G0=1/3Y0
の位置にある。障害物が現われれば、その後の重心位置
GXは、この2/3Y0の位置よりも必ず下降する。即ち、任
意の時点での重心位置をGiで表わせば、 0<Gi<1/3Y0 ‥‥‥(1) となる。そこで、基準位置Rを、三角形の頂点と底辺の
中間点を結ぶ線分上にとり、しかも、Rを、y座標系の
1/6Y0の位置にとる。本実施例において移動車の速度を
上げるか下げるかは、このRを基準にして重心位置Gi
どこにあるかにより考えるようにしている。即ち、例え
ば、GiがRよりもPB(positive big=かなり大)なら
ば、例えば、速度を上昇するようにしている。
A description will be given of where the reference position R is set. As is well known, the center of gravity of the triangle is defined by the line segment connecting the vertex (the vanishing point in the example of FIG. 6) and the midpoint of the base (X 1 in the example of FIG. 6) being two points from the vertex. It is in a position proportionally distributed to one. Further, in the state of FIG. 6, that is, the position of the center of gravity G in the absence of obstacles (the G 0), in the y-axis direction, G 0 = 1 / 3Y 0
In the position. If an obstacle appears, then the center of gravity
G X always falls below this 2 / 3Y 0 position. That is, represented the center of gravity position at any point in G i, a 0 <G i <1 / 3Y 0 ‥‥‥ (1). Therefore, the reference position R is set on a line segment connecting the vertex of the triangle and the midpoint of the base, and R is set in the y coordinate system.
Take 1 / 6Y 0 position. Raise or lower the speed of the transport vehicle in this embodiment is to think on whether the center of gravity position G i where to find by the R in the reference. That is, for example, G i is if PB (positive big = quite large) than R, for example, so as to increase the speed.

ここで、重心の縦方向の変位ETについて定義する。本
実施例では、 ET=Giy−Ry ‥‥‥(2) としている。ここで、GiyはGiのy方向成分、RyはRの
y方向成分である。
Here, the vertical displacement ET of the center of gravity is defined. In this embodiment, ET = G iy −R y ‥‥‥ (2). Here, G iy is y direction component of G i, the R y is the y direction component of R.

第8図を用いて更に具体的に説明する。同図は、車両
100が障害物31をよけながら走行路30を走行していく様
子を説明する。走行位置は、abcdと変化し、
その各々のときの画像をABCDで示す。そし
て、右側に、基準位置Rに対し、重心Giがどのように変
化しているかが示されている。障害物がないときは、画
像はDのようなものが得られる筈であるし、そのとき
は、重心GiはG0に一致している。画像がAの状態に移行
すると、重心GiはG0よりも下降する。画像がBの状態に
移行すると、重心Giは更に下降し、基準Rよりも下の位
置に下がるであろう。
This will be described more specifically with reference to FIG. The figure shows the vehicle
A state in which the vehicle 100 travels on the traveling path 30 while avoiding the obstacle 31 will be described. The running position changes with abcd,
The image at each time is indicated by ABCD. Then, on the right, with respect to the reference position R, or the center of gravity G i is how changes are indicated. When there is no obstacle, the image to should the kind of D is obtained, then the center of gravity G i are matched to G 0. When the image is shifted to the state of A, the center of gravity G i is lowered than G 0. When the image is shifted to the state of B, the center of gravity G i is further lowered, it will fall to a position below the reference R.

次に、ステアリング制御について説明する。ステアリ
ング制御は、重心Giの横方向の変位に基づいて行なう。
本実施例では、カメラ1の取り付け方向は車両の進行方
向と一致させているので、消点から降ろした線分は車両
の進行方向と一致している。そして、障害物がない場合
には、第8図の画像Dのように、画像の重心Giはこの線
分上に乗つている。もし、障害物が左側に現われた場合
は、画像の重心Giは上記線分から右側に移動する。障害
物が右側に現われた場合は、重心Giは左に移動する。一
方、遠方にある障害物の画像の面積は小さく、近いとこ
ろにある画像の面積は大きいから、障害物が遠方にある
ときは、重心の左右への変位は小さく、障害物が近いと
ころにあるときの重心の左右への変位は大きい。人間が
操縦する車両においては、障害物が遠いところにあると
きのステアリングの変更は小さく、障害物が近いところ
にあるときのステアリングの変更は大きくするようにし
ているから、上記の重心の左右への変位情報をそのまま
ステアリング制御情報に利用すれば、自律走行のステア
リング制御の自動化が可能となる。
Next, steering control will be described. Steering control is performed based on the lateral displacement of the center of gravity G i.
In this embodiment, since the mounting direction of the camera 1 matches the traveling direction of the vehicle, the line segment lowered from the vanishing point matches the traveling direction of the vehicle. Then, when there is no obstacle, such as the image D of FIG. 8, the center of gravity G i of the image are Notsu on this segment. If, when the obstacle appears to the left, the center of gravity G i of the image moves to the right from the line. If the obstacle appears to the right, the center of gravity G i are moved to the left. On the other hand, the area of the image of the obstacle at a distance is small, and the area of the image at the near point is large, so when the obstacle is at a distance, the displacement of the center of gravity to the left and right is small, and the obstacle is near. The displacement of the center of gravity to the left and right is large. In vehicles operated by humans, changes in steering when obstacles are far away are small, and changes in steering when obstacles are close are large. If the displacement information is used as it is as the steering control information, the steering control of the autonomous driving can be automated.

ここで、重心の横方向の変位ELについて定義する。本
実施例では、 EL=Gix−Rx ‥‥‥(3) としている。ここで、GixはGiのx方向成分、RxはRの
x方向成分である。
Here, the lateral displacement EL of the center of gravity is defined. In this embodiment, the EL = G ix -R x ‥‥‥ ( 3). Here, G ix is x direction component of G i, R x is the x direction component of R.

第8図に、画像の変化とともに、重心Giが左右に変位
する様を示す。
In FIG. 8, with a change in the image, showing the manner in which the center of gravity G i is displaced to the left and right.

尚、(1)式における走行可能領域の領域計算におい
て、走行路が廊下等の場合には、凹凸が壁が存在する場
合が多いために、そのマージンを考慮した方がよい。ま
た、重心位置が1/3Y0付近や0付近になつてくると、そ
の誤差が制御に大きく影響を与えるために、走行可能領
域のx軸への投影の分布について考慮した方がよい。
In the calculation of the travelable area in the equation (1), when the travel path is a corridor or the like, there are many cases where walls have irregularities, so it is better to consider the margin. Further, when the center of gravity approaches 1 / 3Y 0 or around 0, the error greatly affects the control. Therefore, it is better to consider the distribution of the projection of the travelable area on the x-axis.

以上が、重心位置の変位を利用しての、速度制御、ス
テアリング制御の概要である。
The above is the outline of the speed control and the steering control using the displacement of the position of the center of gravity.

第4図に示したシステムでは、上述の重心位置の変位
を利用した速度制御,ステアリング制御は、遠距離領域
に対して適用される。第4図に示すように、中距離にお
いては、視覚センサ1と超音波センサ8とを同時に用い
る。この場合、主は視覚センサからの情報であり、従は
超音波センサからの情報である。即ち、例え、中距離レ
ンジで超音波センサが障害物の存在を検出しても、それ
を直接走行制御に用いずに、視覚センサを用いての認識
系に、障害物の存在を示唆するに留める。この点につい
て以下詳細に説明する。
In the system shown in FIG. 4, the speed control and the steering control using the displacement of the position of the center of gravity described above are applied to a long-distance region. As shown in FIG. 4, at the middle distance, the visual sensor 1 and the ultrasonic sensor 8 are used at the same time. In this case, the information is mainly from the visual sensor, and the information is from the ultrasonic sensor. That is, even if the ultrasonic sensor detects the presence of an obstacle in the middle range, it does not use it directly for running control, but suggests the presence of the obstacle to a recognition system using a visual sensor. stop. This will be described in detail below.

第9A図は、障害物が中距離域に無い場合におけるカメ
ラ1が捕えた画像を示す。画像は256画素×256画素の領
域を有する。このときの上述の走行可能領域の探索は、
画像の下側から上側に画像の「走査」を行なつて、走行
可能領域の境界(例えば走行路と壁の境)を検出するも
のである。そして、中遠距離認識部27は、通常は、10〜
12画素おきに上記走査を行なうようになつている。も
し、中距離内に障害物が発見された場合には、距離演算
部20がウインド設定部21に対し、その旨伝える。する
と、ウインド設定部21は、画像全体内に探索領域として
のウインドを、第9B図のように設定する。そして、この
設定されたウインド内で、上述の「走査」を最高解像度
(本例では、1画素毎)で行なう。
FIG. 9A shows an image captured by the camera 1 when the obstacle is not in the middle distance range. The image has an area of 256 pixels × 256 pixels. At this time, the search for the travelable area is performed by:
The “scan” of the image is performed from the lower side to the upper side of the image to detect a boundary of a travelable area (for example, a boundary between a traveling road and a wall). Then, the middle and long distance recognition unit 27 normally
The above scanning is performed every 12 pixels. If an obstacle is found within the middle distance, the distance calculation unit 20 informs the window setting unit 21 to that effect. Then, the window setting unit 21 sets a window as a search area in the entire image as shown in FIG. 9B. Then, the above-described “scanning” is performed at the highest resolution (in this example, for each pixel) within the set window.

中距離内に障害物がない場合には、第9A図のような粗
い走査によつて障害物を探索しても精度としては十分で
あり、探索速度の高速さが確保される。一方、中距離域
で超音波センサが障害物を発見したときは、第9B図のよ
うに探索領域を狭くする代りに、情報量を増やして精度
を向上するのである。何故なら、中距離域は、遠距離域
よりも、高い精度での障害物認識が必要となるからであ
る。
When there is no obstacle within the middle distance, even if the obstacle is searched for by coarse scanning as shown in FIG. 9A, the accuracy is sufficient, and a high search speed is secured. On the other hand, when the ultrasonic sensor finds an obstacle in the middle range, instead of narrowing the search area as shown in FIG. 9B, the accuracy is improved by increasing the amount of information. This is because the intermediate range requires obstacle recognition with higher accuracy than the long range.

かくして、中距離域では、高い精度で障害物を認識
し、その認識結果に即した制御量EL,ETが得られる。
Thus, in the middle distance range, the obstacle is recognized with high accuracy, and the control amounts EL and ET according to the recognition result are obtained.

〈フアジールールによる認識結果の融合〉 こうして、近距離認識部24からは障害物までの距離デ
ータSRF,SLF,SLS,SRSが、また、中遠距離認識部27から
は、走行可能領域の重心の横方向変位ELと縦方向変位ET
並びに面積Aとがフアジー推論部25に入力される。前述
したように、距離データSRF,SLF,SLS,SRSや、横方向変
位EL、縦方向変位ET、面積A等は異なる性質の変数であ
るが、本実施例では、同一のフアジールールを適用して
走行軌道を推論することにより、これら異質な量の柔軟
な結合を可能とした。
<Recognition fusion results with Fuajiruru> Thus, the distance data S RF to the obstacle from the short distance recognition unit 24, S LF, S LS, is S RS, also, from the middle long distance recognition unit 27, the travelable area Lateral displacement EL and longitudinal displacement ET of the center of gravity
The area A is input to the fuzzy inference unit 25. As described above, the distance data S RF , S LF , S LS , and S RS , the lateral displacement EL, the longitudinal displacement ET, and the area A are variables having different properties. However, in this embodiment, the same fuzzy rule is used. By applying inference of the traveling trajectory by applying, flexible coupling of these heterogeneous quantities was made possible.

第10A図、第10B図、第10C図及び第11A図、第11B図
は、夫々、ステアリング及び速度制御における推論アル
ゴリズムを表にしてまとめたものである。ここで、速度
制御は、現在の速度Vに対する速度の変化分ΔVとして
表わされ、また、ステアリング制御は現在のステアリン
グ角度STに対する角度の変化分ΔSTとして表わされる。
FIG. 10A, FIG. 10B, FIG. 10C, FIG. 11A, and FIG. 11B summarize the inference algorithms in steering and speed control, respectively. Here, the speed control is expressed as a change ΔV in speed with respect to the current speed V, and the steering control is expressed as a change ΔST in angle with respect to the current steering angle ST.

これらの表において、前件部の、例えばETに対して、 ET=ZO 重心の縦変位無し ET=PS 正方向に若干変位 ET=PB 正方向に大きく変位 ET=NS 負方向に若干変位 ET=NB 負方向に大きく変位 であるようなメンバシップ関数が選ばれている。また、
後件部の例えばΔVに対しては、 ΔV=ZO 速度変化無し ΔV=PS 若干速度上昇 ΔV=PB 大目に速度上昇 ΔV=NS 若干速度減少 ΔV=NB 多めに速度減少 であるようなメンバシップ関数が選ばれている。尚、前
件部の推論には、フアジー理論における所謂ミニマック
ス法を用い、後件部の結果の算出には重心値を用いた。
また、メンバシップ関数は三角形状の分布をしているも
のを選んだ。
In these tables, with respect to the antecedent part, for example, ET, there is no vertical displacement of ET = ZO center of gravity ET = PS Slight displacement in the positive direction ET = PB Large displacement in the positive direction ET = NS Slight displacement in the negative direction ET = NB A membership function that has a large displacement in the negative direction is selected. Also,
For the consequent part, for example, ΔV, ΔV = ZO No speed change ΔV = PS Slight speed increase ΔV = PB Overspeed increase ΔV = NS Slight speed decrease ΔV = NB The function has been chosen. The inference of the antecedent part used the so-called minimax method in fuzzy logic, and the center of gravity value was used to calculate the result of the consequent part.
In addition, a membership function having a triangular distribution was selected.

第10A図、第10B図、第10C図及び第11A図、第11B図の
表をルールとして表わせば、一例として、 if(V is PM,EL is PM) then(ΔST is PM) if(ET is PM,A is PM,V is PS} then(ΔV is PM) if(SRF is PS,SRS is PM) then(ΔST is PS) if(SLF is PS,SLS is PB) then(ΔST is NS) となる。尚、ステアリング変更角ΔSTは、POSITIVEであ
れば左側に、NEGATIVEであれば右側にステアリングを変
更するものとする。
If the tables in FIG. 10A, FIG. 10B, FIG. 10C, FIG. 11A, and FIG. 11B are expressed as rules, as an example, if (V is PM, EL is PM) then (ΔST is PM) if (ET is PM, A is PM, V is PS} then (ΔV is PM) if (S RF is PS, S RS is PM) then (ΔST is PS) if (S LF is PS, S LS is PB) then (ΔST is NS) The steering change angle ΔST is to change the steering to the left if POSITIVE and to the right if NEGATIVE.

第11A図、第11B図の表に示したルールで走行可能領域
の面積Aを考慮にいれてΔVを決定しているのは、障害
物の現われ方によつては、走行可能領域が例えば縦に細
長くなる場合があり、そのときは、重心位置が上側にな
つてしまい、面積を考慮に入れないと、速度を上げるよ
うに制御してしまうからである。
According to the rules shown in the tables of FIGS. 11A and 11B, ΔV is determined in consideration of the area A of the drivable area, depending on how the obstacle appears, the drivable area is, for example, vertical. This is because, in such a case, the position of the center of gravity is located on the upper side, and if the area is not taken into account, control is performed to increase the speed.

〈実施例の効果〉 以上説明した実施例によれば、 :聴覚系のセンサから得た障害物の認識と視覚系のセ
ンサから得た障害物の認識とが、フアジールールによつ
て柔軟に結合されて、走行軌道が推論されるために、間
違いのない障害物回避走行が実現する。従来では、異な
るセンサ系による認識結果は前記特開昭64−26913のよ
うに、切り替え制御でしか処理していなかつたために、
切り替え時における走行は不連続なものであつたが、本
実施例のように、認識結果の緩やかな結合により、走行
は滑らかなものとなる。
<Effects of Embodiment> According to the embodiment described above, the recognition of an obstacle obtained from the auditory system sensor and the recognition of the obstacle obtained from the visual system sensor are flexibly combined by the fuzzy rule. As a result, the traveling trajectory is inferred, so that obstacle-free traveling without error is realized. Conventionally, recognition results by different sensor systems are processed only by switching control as in the above-mentioned Japanese Patent Application Laid-Open No. 64-26913.
Although the running at the time of switching is discontinuous, the running becomes smooth due to the gradual combination of the recognition results as in the present embodiment.

:中遠距離においては、走行可能領域の重心位置の変
位をステアリング制御や速度制御に利用している。これ
により、画像空間内でのデータ処理だけで、推論が可能
となり、高速化に寄与する。
: At medium and long distances, the displacement of the position of the center of gravity of the travelable area is used for steering control and speed control. As a result, inference can be performed only by data processing in the image space, which contributes to speeding up.

:中距離域においては、超音波センサにより障害物の
認識が得られたときは、走行可能領域の探索領域の解像
度を上げることにより、処理速度の確保と認識精度の向
上を図つた。そして、単に、一方のセンサ系の判断だけ
に頼ることなく、一方の認識結果を他方の認識処理に利
用することにより、障害物の有無の判断の精度を上げる
ことができた。
: In the middle distance range, when the recognition of an obstacle was obtained by the ultrasonic sensor, the processing speed was secured and the recognition accuracy was improved by increasing the resolution of the search area of the travelable area. By using one recognition result for the other recognition process without relying solely on the determination of one sensor system, the accuracy of the determination of the presence or absence of an obstacle could be improved.

尚、本発明は、モータ駆動の移動車だけではなく、一
般の内燃機関を搭載した車両にも適用可能である。
The present invention is applicable not only to a motor-driven moving vehicle but also to a vehicle equipped with a general internal combustion engine.

また、上記実施例では、超音波センサと視覚センサと
いう2つのセンサを用いた例であったが、センサの数は
2つに限られず、3つ以上であってもよい。
In the above embodiment, two sensors, the ultrasonic sensor and the visual sensor, are used. However, the number of sensors is not limited to two, and may be three or more.

(発明の効果) 以上説明したように本発明の走行制御装置は、外界に
ついて全体的認識を可能にする画像信号(第1の信号)
と、外界の特定部分(認識する重要性の高い障害物体)
までの距離信号(第2の信号)という、外界に対する異
なる2つの認識結果に対して、同一のファジールールを
夫々適用する。これにより、性質の異なる2つの認識結
果が融合されて走行軌道が推論されるので、柔軟な判断
と滑らかな走行を実現することができる。
(Effects of the Invention) As described above, the traveling control device of the present invention provides an image signal (first signal) that enables overall recognition of the outside world.
And certain parts of the outside world (obstacles of high importance to recognize)
The same fuzzy rule is applied to two different recognition results with respect to the outside world, that is, a distance signal (second signal) to the same. As a result, the traveling trajectory is inferred by fusing the two recognition results having different properties, so that flexible judgment and smooth traveling can be realized.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の構成を示す図、 第2図は本発明を適用した実施例装置のハードウエア構
成を示した図、 第3A図は第2図の装置に用いられる各センサの配置を説
明する図、 第3B図は各センサの検出領域の分割を説明する図、 第4図は第2図のコンピユータ4における処理を機能的
に分割して説明したブロツク図、 第5図は実施例のカメラが撮像した画像の一例を示す
図、 第6図,第7図は本実施例における重心Gを用いた走行
制御の原理を説明する図、 第8図は車両が走行するにつれて、画像及び走行可能領
域の重心位置が変化する様子を説明する図、 第9A図,第9B図は、夫々、近距離内に障害物が無い場合
と或る場合で、障害物探索のための走査の密度が異なる
様子を説明する図、 第10A図、第10B図、第10C図、第11A図、第11B図は本実
施例におけるフアジー推論のルールを説明する図であ
る。 図中、 1……カメラ、2……フレームメモリ、3……モニタ、
4……データ処理コンピユータ、5……画像処理プロセ
ツサ、6……I/Oコントローラ、7a〜7d……タツチセン
サ、8,8aRF,8bRF,8aLF,8bLF,8aRS,8bRS,8aLS,8bLS……
超音波センサ、9a,9b……赤外線センサ、10R,10L……モ
ータ、11……モータコントローラ、15……視覚領域、16
……聴覚領域、20……距離演算部、21……ウインド設定
部、22遠距離認識部、23……中距離認識部、24……近距
離認識部、25……フアジー推論部、30……走行路、31…
…障害物、100……車両である。
FIG. 1 is a diagram showing a configuration of the present invention, FIG. 2 is a diagram showing a hardware configuration of an apparatus to which the present invention is applied, and FIG. 3A is an arrangement of each sensor used in the device of FIG. FIG. 3B is a diagram for explaining the division of the detection area of each sensor, FIG. 4 is a block diagram for explaining the processing in the computer 4 of FIG. 2 by functional division, and FIG. 5 is an embodiment. 6 and 7 are diagrams illustrating the principle of running control using the center of gravity G in the present embodiment. FIG. 8 is a diagram illustrating an image and a moving image as the vehicle travels. FIG. 9A and FIG. 9B are diagrams for explaining how the position of the center of gravity of the drivable area changes, and FIGS. 9A and 9B show scanning densities for searching for obstacles when there is no obstacle within a short distance and when there is a certain obstacle, respectively. FIG. 10A, FIG. 10B, FIG. 10C, FIG. 11A, and FIG. It is a diagram to explain the rules of the definitive Fuaji inference. In the figure, 1 ... camera, 2 ... frame memory, 3 ... monitor,
4 Data processing computer, 5 Image processing processor, 6 I / O controller, 7a to 7d Touch sensor, 8, 8a RF , 8b RF , 8a LF , 8b LF , 8a RS , 8b RS , 8a LS , 8b LS ……
Ultrasonic sensors, 9a, 9b ...... infrared sensor, 10 R, 10 L ...... motor, 11 ...... motor controller, 15 ...... vision zone, 16
... hearing area, 20 ... distance calculation unit, 21 ... window setting unit, 22 long distance recognition unit, 23 ... middle distance recognition unit, 24 ... short distance recognition unit, 25 ... fuzzy inference unit, 30 ... ... runway, 31 ...
... obstacles, 100 ... vehicles.

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】外界の画像を表す第1の信号を生成する第
1の信号生成手段と、 前記第1の信号を入力して、外界認識を行なう第1の認
識手段と、 前記第1の信号生成手段とは独立して、外界の物体との
実距離を示す第2の信号を生成する第2の信号生成手段
と、 この第2の信号を入力し、外界認識を行なう第2の認識
手段と、 上記2つの認識手段の認識結果の夫々に対して同一のフ
ァジールールを適用するファジー推論処理を行って自車
の走行軌道を推論する推論手段と、 この推論結果に基づいて自車の走行を制御する走行制御
手段とを具備したことを特徴とする移動車の走行制御装
置。
A first signal generating means for generating a first signal representing an image of the outside world; a first recognizing means for receiving the first signal and performing outside world recognition; Independent of the signal generating means, a second signal generating means for generating a second signal indicating an actual distance to an external object, and a second recognition for inputting the second signal and performing external recognition Means, a fuzzy inference process of applying the same fuzzy rule to each of the recognition results of the two recognition means, and inference means for inferring the traveling trajectory of the own vehicle. A travel control device for a mobile vehicle, comprising: travel control means for controlling travel.
【請求項2】前記第1の信号生成手段は、中距離または
遠距離の視野角を有する画像を表す前記第1の信号を生
成するように設定され、 前記第2の信号生成手段は、近距離にある物体までの距
離を示す前記第2の信号を生成するように設定されてい
ることを特徴とする請求項1に記載の移動車の走行制御
装置。
2. The method according to claim 1, wherein the first signal generation unit is configured to generate the first signal representing an image having a middle or long viewing angle. The travel control device for a mobile vehicle according to claim 1, wherein the second signal indicating the distance to an object at a distance is set to be generated.
【請求項3】前記第1の認識手段は、第1の信号生成手
段によって得られた画像中に走行可能領域を探索し、そ
の走行可能領域の重心位置を求めて前記推論手段に出力
することを特徴とする請求項1乃至2のいずれかに記載
の移動車の走行制御装置。
3. The first recognizing means searches for a travelable area in an image obtained by the first signal generating means, finds a center of gravity of the runnable area, and outputs it to the inference means. The travel control device for a mobile vehicle according to any one of claims 1 to 2, wherein:
JP1224687A 1989-09-01 1989-09-01 Travel control device for mobile vehicles Expired - Lifetime JP2998965B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1224687A JP2998965B2 (en) 1989-09-01 1989-09-01 Travel control device for mobile vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1224687A JP2998965B2 (en) 1989-09-01 1989-09-01 Travel control device for mobile vehicles

Publications (2)

Publication Number Publication Date
JPH0390916A JPH0390916A (en) 1991-04-16
JP2998965B2 true JP2998965B2 (en) 2000-01-17

Family

ID=16817657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1224687A Expired - Lifetime JP2998965B2 (en) 1989-09-01 1989-09-01 Travel control device for mobile vehicles

Country Status (1)

Country Link
JP (1) JP2998965B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3577851B2 (en) * 1996-10-03 2004-10-20 トヨタ自動車株式会社 Travel control device

Also Published As

Publication number Publication date
JPH0390916A (en) 1991-04-16

Similar Documents

Publication Publication Date Title
US6151539A (en) Autonomous vehicle arrangement and method for controlling an autonomous vehicle
JP3619628B2 (en) Driving environment recognition device
US7590262B2 (en) Visual tracking using depth data
US7710246B2 (en) Vehicle driving assist system
KR102056147B1 (en) Registration method of distance data and 3D scan data for autonomous vehicle and method thereof
JPH10143245A (en) Obstacle collision preventing device for mobile object
JP2000293693A (en) Obstacle detecting method and device
JP3440956B2 (en) Roadway detection device for vehicles
JP2707546B2 (en) Vehicle steering control device
JP2003058997A (en) Traveling road environment detecting device
JP2998965B2 (en) Travel control device for mobile vehicles
JPH1011580A (en) Lane recognizing device for vehicle
JP2658056B2 (en) Autonomous traveling vehicle control device
CN115959112A (en) Vehicle control device, vehicle control method, and storage medium
JP4106163B2 (en) Obstacle detection apparatus and method
JPH07271978A (en) Image processor
CN115959111A (en) Vehicle control device, vehicle control method, and storage medium
WO2021246170A1 (en) Information processing device, information processing system and method, and program
JP2989617B2 (en) Mobile vehicle environment recognition device
CN112925326A (en) AGV obstacle avoidance method based on data fusion of laser radar and depth camera
Fleischer et al. Machine-vision-based detection and tracking of stationary infrastructural objects beside inner-city roads
JPH10141954A (en) Device for detecting obstruction on track for moving body
Yamada et al. Vision based obstacle avoidance and target tracking for autonomous mobile robots
JP2020135586A (en) Peripheral line segment processing device, track estimation device, and peripheral line segment processing program
JP2923664B2 (en) Automatic traveling device