JPH07306717A - Autonomous-running vehicle - Google Patents

Autonomous-running vehicle

Info

Publication number
JPH07306717A
JPH07306717A JP6099681A JP9968194A JPH07306717A JP H07306717 A JPH07306717 A JP H07306717A JP 6099681 A JP6099681 A JP 6099681A JP 9968194 A JP9968194 A JP 9968194A JP H07306717 A JPH07306717 A JP H07306717A
Authority
JP
Japan
Prior art keywords
neural network
vehicle
self
traveling
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6099681A
Other languages
Japanese (ja)
Inventor
Masanori Sugisaka
政典 杉坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP6099681A priority Critical patent/JPH07306717A/en
Publication of JPH07306717A publication Critical patent/JPH07306717A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Feedback Control In General (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To make a desired autonomous running coping with changes in the conditions of a travel road without preparations such as previous learning. CONSTITUTION:A driving means such as motors 6 and 24 and an engine and a control means 8 which is equipped with a television camera 9 for photographing travel environment and a neural network 17 having real-time learning ability and controls the operation of the driving means is mounted on the vehicle body; and an image photographed by the television monitor 9 is processed by the neural network 17 to control the operation of the driving means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
ク利用によって自動走行が可能で、工業、農業、病院、
福祉或いはレジャー施設、その他各方面で利用可能な自
立走行車に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is capable of automatic driving by utilizing a neural network, and can be used for industrial, agricultural, hospital,
The present invention relates to self-supporting vehicles that can be used in welfare or leisure facilities and other areas.

【0002】[0002]

【従来の技術】従来、工場内で荷物を搬送する自立走行
車として、例えば、床面に走行ラインとなるアルミテー
プを貼着し、このアルミテープを車体の下部に取り付け
られたフォトセンサにより検出しながら走行するもの
や、超音波や電磁波などにより進行方向或いは側部にあ
る特定対象物との距離又はその有無を検知しながら走行
するものが知られている。また、CCDカメラによりア
ルミテープ等の画像を取り込み、画像処理を行って、こ
のアルミテープの位置を算出し、アルミテープの位置が
常時カメラの一定位置になるように車体の進行方向を制
御するものが知られている。
2. Description of the Related Art Conventionally, as a self-supporting vehicle for transporting luggage in a factory, for example, an aluminum tape serving as a traveling line is attached to a floor surface, and the aluminum tape is detected by a photo sensor attached to the lower portion of the vehicle body. It is known that the vehicle travels while traveling, or the vehicle travels while detecting the distance to or from a specific object in the traveling direction or on the side by ultrasonic waves or electromagnetic waves. In addition, a CCD camera captures an image of aluminum tape or the like, performs image processing, calculates the position of this aluminum tape, and controls the traveling direction of the vehicle body so that the position of the aluminum tape is always a fixed position of the camera. It has been known.

【0003】ところが、このようなフォトセンサやCC
Dカメラを用いた従来の自立走行車においては、アルミ
テープ等の検知対象物を走行路に沿って配置する必要が
ある。また、超音波や電磁波などを利用して走行する自
立走行車は、進行方向前面或いは側部に検知可能な特定
対象物を配置する必要がある。よって、何れも不特定の
場所を一定の規則に基づいて走行させることは難しいと
いう問題がある。
However, such a photo sensor or CC
In a conventional self-driving vehicle using a D camera, it is necessary to dispose a detection target object such as an aluminum tape along the traveling path. Further, a self-sustaining vehicle that travels using ultrasonic waves, electromagnetic waves, or the like needs to have a specific object that can be detected on the front or side of the traveling direction. Therefore, there is a problem that it is difficult to drive an unspecified place based on a certain rule.

【0004】このようなことから、ニューラルネットワ
ークにより学習された走行路のデータに基づいて、搭載
されたテレビカメラの映像出力を判断して適正に走行さ
せるようにしたものが特願平5−172476号として
本発明者により提案されている。即ち、モータ、エンジ
ン等からなる駆動手段と、この駆動手段の制御部と、テ
レビカメラとを備えた自立走行車において、予め学習さ
せたニューラルネットワークを前記制御部に組み込み、
前記テレビカメラにより撮影した映像をニューラルネッ
トワークによって演算処理して駆動手段を制御すること
により、走行を制御するようにしたものである。これに
よれば、走行路に検知対象物を配置させることなく、自
立走行車が不特定の場所を走行し得るものとなる。
In view of the above, Japanese Patent Application No. 172476/1993 proposes a method in which the image output of a television camera mounted on the vehicle is judged based on the data of the traveling path learned by the neural network and the vehicle is properly driven. It has been proposed by the present inventor as an issue. That is, in a self-sustaining vehicle equipped with a driving unit including a motor and an engine, a control unit for the driving unit, and a TV camera, a neural network learned in advance is incorporated in the control unit.
The image taken by the television camera is arithmetically processed by a neural network to control the driving means to control the traveling. According to this, the self-supporting traveling vehicle can travel in an unspecified place without disposing the detection target object on the traveling path.

【0005】[0005]

【発明が解決しようとする課題】ところが、この提案例
による場合、自立走行車を走行させる前に、走行路のデ
ータを使って予めニューラルネットワークに走行路の状
況と走行の仕方とを学習させる必要がある。このため、 走行路を走らせる前に学習用に走行路のデータを準
備しなければならない。 走行中に発生した新しい状況に俊敏に対応すること
ができない。といった不都合がある。
However, in the case of this proposed example, it is necessary to make the neural network beforehand learn the condition of the traveling road and the way of traveling using the data of the traveling road before the autonomous traveling vehicle is driven. There is. For this reason, road data must be prepared for learning before running on the road. It is not possible to swiftly respond to new situations that occur during driving. There is an inconvenience.

【0006】[0006]

【課題を解決するための手段】請求項1記載の自立走行
車は、モータ、エンジン等の駆動手段と、走行環境を撮
影するテレビカメラと、実時間学習能力を有するニュー
ラルネットワークを備えて前記駆動手段の動作を制御す
る制御手段とを車体に搭載してなり、前記テレビカメラ
で撮影した映像を前記ニューラルネットワークで処理し
て前記駆動手段の動作を制御するようにしたものであ
る。
According to a first aspect of the present invention, there is provided a self-sustaining vehicle including a driving means such as a motor and an engine, a television camera for photographing a traveling environment, and a neural network having a real-time learning ability. A control means for controlling the operation of the means is mounted on the vehicle body, and the image taken by the television camera is processed by the neural network to control the operation of the driving means.

【0007】請求項2記載の自立走行車は、モータ及び
モータ駆動回路による駆動手段と、走行環境を撮影する
CCDカメラと、このCCDカメラの映像出力を圧縮し
て2値化する画像処理手段と、この画像処理手段の出力
に基づき前記映像出力の特徴量を算出する特徴量算出手
段及び誤差逆伝播学習法による実時間学習能力を有する
多層パーセプトロンによるハードウェアニューラルネッ
トワークを備えて前記モータ駆動回路の動作を制御する
制御手段とを車体に搭載してなり、前記CCDカメラで
撮影した映像に基づき算出された特徴量を前記ハードウ
ェアニューラルネットワークに入力して走行環境の状態
を判定させこの判定結果に基づく出力により前記モータ
駆動回路の動作を制御するようにしたものである。
A self-sustaining vehicle according to a second aspect of the present invention includes a driving means including a motor and a motor driving circuit, a CCD camera for photographing a traveling environment, and an image processing means for compressing a video output of the CCD camera and binarizing it. Of the motor drive circuit, comprising a feature quantity calculating means for calculating the feature quantity of the video output based on the output of the image processing means and a hardware neural network with a multilayer perceptron having a real-time learning ability by the error backpropagation learning method. A control means for controlling the operation is mounted on the vehicle body, and the characteristic amount calculated based on the image captured by the CCD camera is input to the hardware neural network to determine the state of the traveling environment. Based on the output, the operation of the motor drive circuit is controlled.

【0008】請求項3記載の自立走行車は、請求項2記
載の自立走行車におけるハードウェアニューラルネット
ワークを、パルス密度論理演算型ハードウェアニューラ
ルネットワークとしたものである。
A self-supporting vehicle according to a third aspect of the present invention is the self-supporting vehicle according to the second aspect, wherein the hardware neural network is a pulse density logical operation type hardware neural network.

【0009】請求項4記載の自立走行車は、請求項2又
は3記載の自立走行車の制御手段中に、ハードウェアニ
ューラルネットワークの出力を入力としてモータ駆動回
路に制御信号を出力するファジィコントローラを設けた
ものである。
According to another aspect of the present invention, there is provided a self-sustaining vehicle having a fuzzy controller in the control means of the self-sustaining vehicle according to the second or third aspect, which outputs a control signal to a motor drive circuit using an output of a hardware neural network as an input. It is provided.

【0010】[0010]

【作用】請求項1記載の自立走行車においては、車体に
搭載したテレビカメラで撮影して得られた映像を数値処
理した結果得られたデータをニューラルネットワークに
入力させることにより、ニューラルネットワークに走行
路の状況を学習させる。また、これと並行して、又は、
学習終了後に、テレビカメラを通して得られるデータを
ニューラルネットワークに入力することにより走行路の
状況を判断させ、このニューラルネットワークの出力に
よって走行を制御する。これにより、検知対象物の配置
されていない不特定の場所であっても自立走行できる。
ここに、このニューラルネットワークは実時間学習能力
を備えているので、学習と走行制御とを同時並列的に行
うことができる。従って、予め学習させるという前準備
なしに、実際に走行路を走行させながら学習させること
ができる。即ち、実際の走行場面にて走行経験を積ませ
るだけで望ましい自立走行を行わせることができる。さ
らには、道路や路肩や壁などの形状や色などのような走
行環境が変化しても変化した環境に適応しながら適切に
走行させることもできる。よって、例えば、同じ2点間
を繰り返し往復する場合であれば、走行が次第にスムー
ズになっていくことにより、次第に短い時間で往復させ
ることが可能となる。或いは、障害物が頻発する場合で
も、障害物を迅速に回避させることが可能となる。ま
た、このようなニューラルネットワークが車体に搭載さ
れているので、搭載せずに信号線等により結んだ外部の
ニューラルネットワークを用いるものに比して走行範囲
が制約を受けない。
In the self-supporting vehicle according to claim 1, the neural network is driven by inputting the data obtained as a result of numerical processing of the image obtained by photographing the image obtained by the television camera mounted on the vehicle body. Train the road situation. Also, in parallel with this, or
After the learning is completed, the data obtained through the television camera is input to the neural network to determine the condition of the traveling road, and the traveling is controlled by the output of the neural network. As a result, it is possible to run independently even in an unspecified place where the detection target is not placed.
Since this neural network has a real-time learning capability, learning and running control can be performed simultaneously in parallel. Therefore, the learning can be performed while actually traveling on the traveling path without the preliminary preparation of learning in advance. That is, the desired self-sustaining running can be performed only by gaining the running experience in the actual running scene. Furthermore, even if the running environment such as the shape and color of the road, shoulders, walls, etc. changes, it is possible to drive appropriately while adapting to the changed environment. Therefore, for example, in the case of repeatedly making a round trip between the same two points, it becomes possible to make a round trip in a gradually shorter time because the traveling becomes smoother. Alternatively, even when the obstacle frequently occurs, it is possible to quickly avoid the obstacle. Further, since such a neural network is mounted on the vehicle body, the traveling range is not restricted as compared with the one using an external neural network connected by a signal line or the like without being mounted.

【0011】請求項2記載の自立走行車においては、こ
のような作用に加えて、CCDカメラの映像出力に基づ
き特徴量算出手段で特徴量を算出してハードウェアニュ
ーラルネットワークに入力させているので、ニューラル
ネットワークの負担が減り、ニューラルネットワークの
学習が容易となる上に、ニューラルネットワークの規模
も小さくなる。また、ハードウェアニューラルネットワ
ークが多層パーセプトロンによるため、ボルツマンマシ
ンのような別タイプのニューラルネットワークよりも高
速に動作する。
In the self-supporting vehicle according to the second aspect, in addition to such an action, the characteristic amount calculating means calculates the characteristic amount based on the image output of the CCD camera and inputs it to the hardware neural network. The load on the neural network is reduced, learning of the neural network is facilitated, and the scale of the neural network is reduced. Also, since the hardware neural network is based on the multilayer perceptron, it operates faster than other types of neural networks such as Boltzmann machines.

【0012】請求項3記載の自立走行車においては、軽
量で高速学習可能なパルス密度論理演算型ハードウェア
ニューラルネットワークを利用しているので、走行速度
が高速に保てる。
In the self-driving vehicle according to the third aspect, since the pulse neural network of the pulse density logical operation type which is lightweight and can learn at high speed is used, the traveling speed can be kept high.

【0013】請求項4記載の自立走行車においては、ニ
ューラルネットワークにファジィコントローラを融合さ
せているので、制御能力が高まる。
In the self-supporting vehicle according to the fourth aspect, since the fuzzy controller is integrated with the neural network, the control capability is enhanced.

【0014】[0014]

【実施例】本発明の一実施例を図面に基づいて説明す
る。まず、本実施例による自立走行車1の概略構成を図
2により説明する。この自立走行車1は各々一対ずつの
駆動車輪2と従動車輪3とを後端下部と前端下部とに備
えた車体4をベースとするものであり、この車体4上に
は車体パネル5が組み付けられている。この車体パネル
5の形は、図示例では、箱形としているが、これに限ら
ず、自立走行車1を走行させる環境に応じて別の形、例
えば半割卵形などとしてもよい。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described with reference to the drawings. First, the schematic configuration of the self-supporting vehicle 1 according to the present embodiment will be described with reference to FIG. The self-supporting vehicle 1 is based on a vehicle body 4 provided with a pair of driving wheels 2 and driven wheels 3 at a lower rear end and a lower front end, and a vehicle body panel 5 is mounted on the vehicle body 4. Has been. The shape of the vehicle body panel 5 is a box shape in the illustrated example, but the shape is not limited to this, and may be another shape, for example, a half-split egg shape, depending on the environment in which the self-supporting traveling vehicle 1 travels.

【0015】前記車体4上には前記駆動車輪2を回転駆
動させるための駆動用モータ6が搭載されている。ま
た、この車体4上には電池による電源7、内部にコンピ
ュータ及び後述する実時間学習能力を有するニューラル
ネットワークを含む制御装置(制御手段)8、テレビカ
メラ、ここでは照明付きのCCDカメラ9及びこのCC
Dカメラ9で得られる映像出力を処理する画像処理装置
(画像処理手段)10が搭載されている。前記CCDカ
メラ9は前方の状況(走行環境)を撮影するもので、上
下左右の首振り及び上下動可能な駆動装置11に搭載さ
れ、その下部には集音マイク12が備えられている。
A drive motor 6 for rotating the drive wheels 2 is mounted on the vehicle body 4. Further, on the vehicle body 4, a power source 7 by a battery, a control device (control means) 8 including a computer and a neural network having a real-time learning ability described later, a television camera, here a CCD camera 9 with illumination and this CC
An image processing device (image processing means) 10 for processing a video output obtained by the D camera 9 is mounted. The CCD camera 9 is for taking a picture of a front situation (running environment), and is mounted on a driving device 11 which can be vertically and horizontally swung and vertically moved, and a sound collecting microphone 12 is provided below the driving device 11.

【0016】このような自立走行車1の電気系統の制御
系ブロック図構成を図1により説明する。まず、CCD
カメラ9で撮影して得られる外界の映像信号を処理する
画像処理装置10は、例えば、映像信号に対して適宜画
像処理を施す画像処理部13と、適宜圧縮処理を施す画
像圧縮部14と、2値化処理を施す2値化部15とによ
り構成されている。
The control system block diagram of the electric system of the self-sustaining vehicle 1 will be described with reference to FIG. First, CCD
The image processing apparatus 10 that processes an external video signal obtained by shooting with the camera 9 includes, for example, an image processing unit 13 that appropriately performs image processing on the video signal, an image compression unit 14 that appropriately performs compression processing, It is configured by a binarization unit 15 that performs binarization processing.

【0017】これにより、CCDカメラ9から取り込ん
だ例えば256×256の画素からなる赤、緑、青の3
つの映像信号を、輝度を64段階に分けて各々記憶す
る。そして、必要な場合は図形移動を行うが、自立走行
車1の走行制御の場合にはCCDカメラ9を固定し図形
の全体位置から判断するので、図形移動は必ずしも必要
ではない。また、CCDカメラ9の情報(映像信号)を
そのまま処理すると、制御装置8を構成する通常のパー
ソナルコンピュータではメモリ容量が不足するので、必
要な場合には画像圧縮(例えば、32×32画素)を行
い、さらには、赤、緑、青の3つの映像信号の閾値を選
択して処理信号とすればよい。
As a result, the red, green, and blue 3 pixels, which are, for example, 256 × 256 pixels and are captured by the CCD camera 9.
The brightness of each video signal is divided into 64 levels and stored. The figure is moved when necessary, but in the case of the traveling control of the self-supporting vehicle 1, the CCD camera 9 is fixed and judgment is made from the overall position of the figure, so the figure movement is not always necessary. Further, if the information (video signal) of the CCD camera 9 is processed as it is, the memory capacity of the ordinary personal computer forming the control device 8 becomes insufficient. Therefore, image compression (for example, 32 × 32 pixels) may be performed if necessary. Then, the thresholds of the three video signals of red, green, and blue may be selected and used as processed signals.

【0018】このような画像処理装置10により圧縮・
2値化された信号を入力とする制御装置8の入力部に
は、特徴量計算部(特徴量算出手段)16が設けられて
いる。この特徴量計算部16で算出する特徴量は、例え
ば2値化された画像そのもの或いはコンピュータで演算
して得られたその画像のモーメント不変量(慣性モーメ
ント、重心の位置、画面を2,4又は9以上に分割した
場合の各々の慣性モーメント或いは重心の位置など)で
ある。この特徴量計算部16で算出された特徴量や前記
画像処理装置10からの出力信号を入力として制御装置
8の主要部をなす実時間(リアルタイム)学習能力を有
するニューラルネットワーク17が設けられている。即
ち、このニューラルネットワーク17に要求される機能
は、学習のために走行速度を落したり走行を停止させた
りすることが不要で十分高速な学習機能を備え、自立走
行車1の車体4に搭載できるような小型でスタンドアロ
ンで動作可能なことである。
By the image processing device 10 as described above,
A feature amount calculation unit (feature amount calculation means) 16 is provided in the input unit of the control device 8 that receives a binarized signal. The feature amount calculated by the feature amount calculation unit 16 is, for example, a binarized image itself or a moment invariant amount (inertia moment, position of the center of gravity, screen 2, 4, or 4) of the image obtained by calculation by a computer. It is the moment of inertia of each or the position of the center of gravity when divided into 9 or more). A neural network 17 having a real-time (real-time) learning ability, which is a main part of the control device 8, is provided with the feature amount calculated by the feature amount calculating portion 16 and the output signal from the image processing device 10 as inputs. . That is, the function required for the neural network 17 is not required to slow down the traveling speed or stop the traveling for learning, and has a sufficiently high-speed learning function, which can be mounted on the vehicle body 4 of the self-supporting vehicle 1. It is small and can operate standalone.

【0019】このような要求を満たすニューラルネット
ワークとしては、例えば、本出願人が特開平4−549
号公報、特開平4−111185号公報、特開平5−2
10650号公報、その他により既に提案しているニュ
ーラルネットワークを用いればよい。即ち、デジタル型
の一つとして、信号をパルス列で表現する方式としたパ
ルス密度型で自己学習機能付きのニューラルネットワー
クであり、特開平4−549号公報がフォワードプロセ
スの基本を示し、特開平4−111185号公報が学習
プロセスの基本を示すものである。より詳細には、VL
SI化したニューロンからなるパルス密度論理演算型ハ
ードウェアニューラルネットワークであり、入力層、1
つ又は複数の中間層及び出力層を有し、誤差逆伝播法
(バックプロパゲーション法)による学習機能を備えた
多層パーセプトロンである。このような多層パーセプト
ロンによれば、ボルツマンマシンのような他のタイプの
学習能力付きのニューラルネットワークよりも高速で動
作させ得る特長を持つ。特に、パルス密度論理演算型ハ
ードウェアニューラルネットワークによれば、軽量で高
速で学習が可能なため、自立走行車1の走行速度を高速
に保ちつつ制御可能となる。
As a neural network satisfying such requirements, for example, the applicant of the present invention has disclosed Japanese Unexamined Patent Publication No. 4-549.
Japanese Patent Laid-Open No. 4-111185 and Japanese Patent Laid-Open No. 5-2
The neural network already proposed by 10650 gazette and others may be used. That is, as one of the digital types, it is a pulse density type neural network with a self-learning function in which a signal is expressed by a pulse train, and JP-A-4-549 discloses the basics of the forward process. No. 111185 gazette shows the basics of the learning process. More specifically, VL
A pulse density logical operation type hardware neural network consisting of SI neurons.
A multilayer perceptron having one or a plurality of intermediate layers and an output layer and having a learning function by an error backpropagation method (backpropagation method). Such a multi-layer perceptron has a feature that it can be operated at a higher speed than other types of neural networks with learning ability such as Boltzmann machine. Particularly, according to the pulse density logical operation type hardware neural network, since it is lightweight and can perform learning at high speed, it becomes possible to control while maintaining the traveling speed of the self-supporting vehicle 1 at high speed.

【0020】ここに、誤差逆伝播法によるニューラルネ
ットワーク17の学習は周知であるが、簡単に説明して
おく。まず、ニューラルネットワーク17に入力信号を
与えると、このニューラルネットワーク17は入力層か
ら中間層を経て出力層に向かって信号を順次処理して出
力信号を出す。これを、ニューラルネットワークの「フ
ォワードプロセス」と称する。次に、ニューラルネット
ワーク17はこの出力信号と与えられた教師信号とから
誤差信号を生成し、今度は逆に、この誤差信号を出力層
から中間層を経て入力層に向かって伝播させながらシナ
プス部分の結合係数を変更していく。これを、ニューラ
ルネットワークの「バックワードプロセス」と称する。
1回のフォワードプロセスと1回のバックワードプロセ
スとの組合せにより1回の学習プロセスが構成される。
この学習プロセスを何回も繰り返して実行することによ
って結合係数の値が適切な値に変わると、ニューラルネ
ットワーク17から教師信号に等しい出力信号が得られ
るようになり、ニューラルネットワーク17の学習が終
了する。バックワードプロセスなしにフォワードプロセ
スのみを実行させることもできる。
Here, although learning of the neural network 17 by the error back propagation method is well known, it will be briefly described. First, when an input signal is given to the neural network 17, the neural network 17 sequentially processes the signal from the input layer through the intermediate layer to the output layer and outputs the output signal. This is called the "forward process" of the neural network. Next, the neural network 17 generates an error signal from this output signal and the given teacher signal, and conversely, while propagating this error signal from the output layer through the intermediate layer to the input layer, the synapse part is generated. Change the coupling coefficient of. This is called the "backward process" of the neural network.
One learning process is configured by a combination of one forward process and one backward process.
When the value of the coupling coefficient changes to an appropriate value by repeatedly executing this learning process, an output signal equal to the teacher signal is obtained from the neural network 17, and the learning of the neural network 17 ends. . It is also possible to execute only the forward process without the backward process.

【0021】このようなニューラルネットワーク17に
n回の入力信号について学習プロセスを実行させた後、
その後のm回の入力信号についてニューラルネットワー
ク17のフォワードプロセスにより得られる出力信号を
入力とする識別及び処理部18が設けられている。即
ち、自立走行車1の走行中、このn回の学習プロセスと
m回のフォワードプロセスの実行を繰り返す。ここに、
n,mは0又は任意の整数であり、学習プロセスとフォ
ワードプロセスとを繰り返す毎に変化させてよく、或い
は、同一値に保ってもよい。nとして学習を完了させる
のに十分大きな数に設定すれば、自立走行車1は走行環
境を走行過程の各場面で確実に学習しながら走行するこ
とになる。nが学習を完了させるのに十分大きな数でな
い場合は、学習プロセスとフォワードプロセスとの繰り
返しの1回の間には学習が完了しないが、何回か繰り返
しているうちに学習が完了する。
After causing the neural network 17 to perform the learning process on the input signal n times,
A discriminating and processing unit 18 is provided which receives the output signal obtained by the forward process of the neural network 17 for the subsequent m input signals. That is, while the autonomous vehicle 1 is traveling, the learning process n times and the forward process m times are repeated. here,
n and m are 0 or an arbitrary integer, and may be changed each time the learning process and the forward process are repeated, or may be maintained at the same value. If n is set to a sufficiently large number to complete learning, the self-supporting vehicle 1 travels while surely learning the traveling environment in each scene of the traveling process. If n is not a large enough number to complete the learning, the learning is not completed during one iteration of the learning process and the forward process, but the learning is completed within several iterations.

【0022】ところで、このようなn回の学習プロセス
の後にm回のフォワードプロセスを実行する、というよ
うに、学習プロセスの実行過程とフォワードプロセスの
出力信号の送付過程とを分離せず、学習プロセス実行時
のニューラルネットワーク17の出力信号を識別及び処
理部18に出力させるようにしてもよい。即ち、ニュー
ラルネットワーク17の学習とニューラルネットワーク
17による自立走行車1の制御とを同時並行的に実行さ
せるようにしてもよい。この場合、自立走行車は始めの
うちは例えば壁にぶつかるなど不適切に走行するが、走
行しているうちに学習が進行し、次第に適切な走行に変
わっていき、遂には与えられた走行環境の中を適切に走
行できるようになる。
By the way, the learning process is not separated from the execution process of the output signal of the forward process, for example, the forward process is executed m times after the learning process of n times. The output signal of the neural network 17 at the time of execution may be output to the identification and processing unit 18. That is, the learning of the neural network 17 and the control of the autonomous traveling vehicle 1 by the neural network 17 may be simultaneously executed in parallel. In this case, the self-sustaining vehicle initially travels improperly, such as hitting a wall, but learning progresses while the vehicle is traveling, gradually changing to an appropriate traveling, and finally the given traveling environment. You will be able to drive properly inside.

【0023】前記識別及び処理部18では、ニューラル
ネットワーク17の出力信号の識別を行って、識別結果
を基準データ19と比較して分類を行い、その出力を制
御装置8の出力段に設けられたファジィコントローラ2
0に与えるものである。
In the identification and processing section 18, the output signal of the neural network 17 is identified, the identification result is compared with the reference data 19 to perform classification, and the output is provided in the output stage of the controller 8. Fuzzy controller 2
It is given to 0.

【0024】一方、車体4の一部に搭載された集音マイ
ク12による音声信号が入力される音声識別回路21が
設けられている。この音声識別回路21は音声信号を所
定の命令信号に変換して前記識別及び処理部18中のメ
モリ(図示せず)に入力させるものである。これによ
り、自立走行車1が音声命令によって、停止、右旋回、
左旋回、加速、減速等を行えるものとされている。
On the other hand, a voice discriminating circuit 21 to which a voice signal from the sound collecting microphone 12 mounted on a part of the vehicle body 4 is inputted is provided. The voice identification circuit 21 converts a voice signal into a predetermined command signal and inputs it into a memory (not shown) in the identification and processing section 18. As a result, the autonomous vehicle 1 stops, turns right,
It is supposed to be able to turn left, accelerate, and decelerate.

【0025】このような識別及び処理部18からの出力
信号が入力されるファジィコントローラ20は、予めプ
ログラムされたROMを有し、ニューラルネットワーク
17の処理信号(2値化された信号、画像信号等を含
む)を入力して、各入力に応じた出力を演算して、駆動
用モータ駆動回路22及びステアリング用モータ駆動回
路23に制御出力を与えるものである。前記駆動用モー
タ駆動回路22は駆動用モータ6を駆動させ、前記ステ
アリング用モータ駆動回路23は従動車輪3を操舵する
ために搭載されたステアリング用モータ24を駆動させ
るものであり、これらの駆動回路22,23及びモータ
6,24により駆動手段が構成されている(もちろん、
エンジン車であれば、エンジンにより駆動手段が構成さ
れる)。これらのモータ6,24には各々ロータリエン
コーダ25,26が設けられており、予め設定記憶され
た基準回転角度27,28と比較しながら駆動車輪2の
回転状況(回転数、回転速度)及び従動車輪3の操舵状
況をファジィコントローラ20にフィードバック可能と
されている。このようにニューラルネットワーク17を
ファジィコントローラ20と融合させることにより、制
御能力が高まるものとなる。このようなファジィコント
ローラ20としては、例えば、1992年6月3日から5日
の間に、Istanbul,TURKIYEで「“Fuzzy Control of Mo
bil Vehicle”IFACWORKSHOP ON AUTOMATIC CONTROL FOR
QUALITY AND PRODUCTIVITY,ACQP'92,Preprints,Vo
l.2」 として詳細に実例が発表されたものを用いればよ
い。
The fuzzy controller 20 to which the output signal from the identification and processing unit 18 is input has a ROM programmed in advance, and the processed signal (binarized signal, image signal, etc.) of the neural network 17 is inputted. (Including) is calculated, an output corresponding to each input is calculated, and a control output is given to the drive motor drive circuit 22 and the steering motor drive circuit 23. The drive motor drive circuit 22 drives the drive motor 6, and the steering motor drive circuit 23 drives the steering motor 24 mounted to steer the driven wheels 3. These drive circuits The driving means is composed of 22, 23 and the motors 6, 24 (of course,
If it is an engine car, the driving means is composed of the engine). These motors 6 and 24 are provided with rotary encoders 25 and 26, respectively, and compare with the reference rotation angles 27 and 28 that are preset and stored, the rotation state (rotation speed, rotation speed) and the driven state of the drive wheel 2. The steering status of the wheels 3 can be fed back to the fuzzy controller 20. By fusing the neural network 17 with the fuzzy controller 20 in this manner, controllability is enhanced. An example of such a fuzzy controller 20 is, for example, from June 3 to 5, 1992, in Istanbul, TURKIYE, "" Fuzzy Control of Mo
bil Vehicle ”IFACWORKSHOP ON AUTOMATIC CONTROL FOR
QUALITY AND PRODUCTIVITY, ACQP'92, Preprints, Vo
As for “l.2”, those for which detailed examples have been announced may be used.

【0026】よって、本実施例の自立走行車1によれ
ば、CCDカメラ9で撮影した走行路の状況をニューラ
ルネットワーク17により認識判断できるので、予め検
知対象物の配置されていない不特定の場所であっても自
立走行可能となる。また、このニューラルネットワーク
17が実時間学習能力を有するので、学習と走行制御と
を同時並列的に行うことができ、或いは、予め学習させ
るという前準備なしに、実際に走行路を走行させながら
学習させることもできる。即ち、実際の走行場面に自立
走行車1を置いて走行経験を積ませるだけで望ましい自
立走行を行わせることができる。さらには、走行環境
(例えば、道路や路肩や壁などの形状や色など)が変化
しても、変化した環境に適応しながら適切に走行させる
こともできる。また、このようなニューラルネットワー
ク17が車体4に搭載されているので、搭載されずに信
号線等により結んだ外部のニューラルネットワークを用
いるものに比して自立走行車1の走行範囲に制約がない
ものとなる。
Therefore, according to the self-supporting vehicle 1 of the present embodiment, the condition of the traveling road photographed by the CCD camera 9 can be recognized and judged by the neural network 17, so that an unspecified place where the object to be detected is not arranged in advance. Even then, it becomes possible to run independently. Further, since the neural network 17 has a real-time learning capability, learning and running control can be performed in parallel at the same time, or learning is performed while actually running on a running path without preparation for learning in advance. You can also let it. That is, the desired self-sustaining traveling can be performed only by placing the self-sustaining traveling vehicle 1 in the actual traveling scene and gaining traveling experience. Furthermore, even if the traveling environment (for example, the shape or color of the road, shoulders, walls, etc.) changes, it is possible to drive appropriately while adapting to the changed environment. Further, since such a neural network 17 is mounted on the vehicle body 4, there is no restriction on the traveling range of the self-supporting vehicle 1 as compared with a case where an external neural network connected by a signal line or the like is used without being mounted. Will be things.

【0027】なお、本実施例では、ニューラルネットワ
ーク17とファジィコントローラ20とを融合させた制
御装置8としたが、ファジィコントローラ20に代え
て、通常のPIDコントローラを用いて制御信号をモー
タ駆動回路22,23に与えるようにしてもよい。この
場合、ニューラルネットワーク17による処理信号を、
予め設定されたプログラムに従いモータ駆動信号に変
え、これをモータ駆動回路22,23に与え、対応する
モータ6,24を制御して、自立走行車1の走行を制御
することになる。
In this embodiment, the control device 8 has the neural network 17 and the fuzzy controller 20 integrated, but instead of the fuzzy controller 20, a normal PID controller is used to send the control signal to the motor drive circuit 22. , 23 may be given. In this case, the processed signal by the neural network 17 is
According to a preset program, it changes into a motor drive signal, this is given to the motor drive circuits 22 and 23, and the corresponding motors 6 and 24 are controlled, and the traveling of the self-supporting vehicle 1 is controlled.

【0028】また、本実施例の制御装置8にあっては前
記特徴量計算部16で算出された特徴量を入力とする異
常及び故障識別回路29が設けられ、その識別出力が前
記識別及び処理部18に与えられるように構成されてい
る。この異常及び故障識別回路29はニューラルネット
ワーク17とは別のニューラルネットワーク(図示せ
ず)を内蔵したものである。即ち、入力層、中間層及び
出力層を有する階層型構造で予め学習済みのものであ
り、特徴量計算部16から入力される特徴量データにつ
いて判断処理を行い、特徴量データの形状、色彩から特
定物の異常や故障を診断する機能を有する。ここに、目
的地に到達し別の搬送装置に移載するような場合、その
搬送装置等の特定物の形状についても予めニューラルネ
ットワークによって識別し、この自立走行車1が荷物等
を運搬する場合には、無人で荷物の受け継ぎを行えるよ
うにすることも可能である。
Further, the control device 8 of the present embodiment is provided with an abnormality / fault identifying circuit 29 which receives the feature quantity calculated by the feature quantity calculating section 16 as an input, and the identification output thereof is the identification and processing. It is configured to be provided to the section 18. The abnormality / fault identifying circuit 29 has a built-in neural network (not shown) different from the neural network 17. That is, it is a hierarchical structure that has an input layer, an intermediate layer, and an output layer, and has already been learned. It has the function of diagnosing abnormalities and failures of specific objects. Here, when the destination is reached and transferred to another carrier, the shape of a specific object such as the carrier is also identified in advance by a neural network, and when the self-supporting vehicle 1 carries a package or the like. It is also possible to allow unmanned luggage transfer.

【0029】このような特定物の形状、異常や故障とい
った状況の診断は、予めプログラムされた命令或いは集
音マイク12を通じて入力される命令によって行われ
る。この場合、対象物の形状、異常或いは故障を診断す
る場合には、CCDカメラ9が診断対象物に向く必要が
あるので、このCCDカメラ9に対して昇降及び旋回の
ために設けられた駆動装置11が、予めプログラムされ
た命令によって対象物を追尾するように構成されてい
る。なお、このような対象物の追尾にあっても、例えば
ニューラルネットワークを利用してこの対象物の形状、
模様、色彩等の特徴について学習し、学習されたニュー
ラルネットワークを用いて対象物の異常、故障の程度を
判断するようにしてみよい。或いは、対象物の追尾に関
しても、通常のPID制御を利用するようにしてもよ
く、又は、ニューラルネットワークとファジィ制御との
組合せ(例えば、本発明者提案による特開平5−233
062号公報「移動対識別追尾システム」参照)を利用
するようにしてもよい。
Diagnosis of the shape of such a specific object, a situation such as an abnormality or a failure is performed by a preprogrammed command or a command input through the sound collecting microphone 12. In this case, when diagnosing the shape, abnormality or failure of the object, the CCD camera 9 needs to face the object to be diagnosed. Therefore, a driving device provided for raising and lowering and turning the CCD camera 9 11 is configured to track an object according to pre-programmed instructions. Even when tracking such an object, the shape of the object, for example, using a neural network,
It is also possible to learn features such as patterns and colors, and use the learned neural network to judge the degree of abnormality or failure of the object. Alternatively, for the tracking of the object, the normal PID control may be used, or a combination of the neural network and the fuzzy control (for example, Japanese Patent Laid-Open No. 5-233 proposed by the present inventor).
No. 062 (see “moving pair identification tracking system”).

【0030】以上のようにして、前述した先願の特願平
5−172476号と同様に、自立走行車1に搭載され
た特定物の形状、異常及び故障の識別手段が構成されて
いる。即ち、自立走行車1が目的地に到達して自立走行
車1に搭載された荷物を別の搬送装置に移載する場合に
は、どの搬送装置に移載すればよいかを知り、或いは、
その搬送装置には故障があるか否かを知ることが必要な
ためのものであり、走行路にある特定対象物の画像入力
を数値処理化して、予め学習させたニューラルネットワ
ークを通して特定対象物の形状、異常及び故障を判断す
るための識別手段である。これにより、対象物の選択、
故障或いは異常箇所の識別を高速で行え、特定対象物と
の連繋作業或いは不慮の事故等に対処できる。
As described above, similar to the above-mentioned Japanese Patent Application No. 5-172476, the means for identifying the shape, abnormality and failure of the specific object mounted on the self-supporting vehicle 1 is constructed. That is, when the self-supporting traveling vehicle 1 reaches the destination and transfers the load mounted on the self-supporting traveling vehicle 1 to another transfer device, it is known which transfer device should be transferred, or
This is because it is necessary to know whether or not there is a failure in the transport device, and the image input of the specific object on the traveling path is converted into a numerical process, and the neural network learned in advance is used to input the specific object. It is an identification means for judging the shape, abnormality and failure. This makes it possible to select an object,
It is possible to identify a failure or an abnormal portion at high speed, and it is possible to deal with a connection work with a specific object or an unexpected accident.

【0031】ついで、このように構成された自立走行車
1を用いて実際の走行を想定した具体例を図3を参照し
て説明する。自立走行車1が、例えば、道路31を走行
する場合には、車体4の前部中央に前向きに搭載された
CCDカメラ9によって撮影される映像出力の様子を示
すと、図3(a)〜(g)に示すようなものとなる。図
中、32は路肩線を示す。同図(a)の場合は道路31
が直線状であり、同図(b)の場合は前方に交差点があ
ることを示す。このような直線道路上及び交差点のある
道路上で自立走行車1を走行させ、CCDカメラ9によ
って撮影された映像が同図(a)である場合には道路3
1が直線状であると判定した出力を、同図(b)である
場合には前方に交差点があると判定した出力を出すよう
に、ニューラルネットワーク17に学習させる。例え
ば、前者(直線状)の場合には、ニューラルネットワー
ク17の出力層の1番目のニューロンに値1.0の教師
信号を与え、出力層の残りのニューロンに値0.0の教
師信号を与え、また、後者(交差点)の場合には、ニュ
ーラルネットワーク17の出力層の2番目のニューロン
に値1.0の教師信号を与え、出力層の残りのニューロ
ンに値0.0の教師信号を与える。これにより、前者の
場合にはニューラルネットワーク17の出力層の1番目
のニューロンが値1.0を出力し出力層の残りのニュー
ロンが値0.0を出力するように学習させ、後者の場合
にはニューラルネットワーク17の出力層の2番目のニ
ューロンが値1.0を出力し出力層の残りのニューロン
が値0.0を出力するように学習させる。そして、例え
ば交差点があると判定した場合には予め入力されたプロ
グラム或いは集音マイク12からの命令信号によって、
走行方向の決定を行い、そのまま直進、或いは減速して
左折又は右折を行うことになる。
Next, a specific example in which actual traveling is assumed using the self-supporting traveling vehicle 1 configured as described above will be described with reference to FIG. When the self-supporting vehicle 1 travels on the road 31, for example, FIG. 3A to FIG. 3A show the state of image output captured by the CCD camera 9 mounted in the front center of the vehicle body 4 facing forward. As shown in (g). In the figure, 32 indicates a shoulder line. Road 31 in the case of FIG.
Is a straight line, and in the case of FIG. 7B, it indicates that there is an intersection in front. When the self-supporting vehicle 1 is driven on such a straight road and on a road having an intersection and the image captured by the CCD camera 9 is shown in FIG.
The neural network 17 is made to learn so that the output that is determined to be 1 is linear, and the output that is determined to be an intersection ahead in the case of FIG. For example, in the former case (straight line), the first neuron in the output layer of the neural network 17 is given a teacher signal with a value of 1.0, and the remaining neurons in the output layer are given a teacher signal with a value of 0.0. In the latter case (intersection), the second neuron in the output layer of the neural network 17 is given a teacher signal with a value of 1.0, and the remaining neurons in the output layer are given a teacher signal with a value of 0.0. . As a result, in the former case, learning is performed so that the first neuron in the output layer of the neural network 17 outputs the value 1.0 and the remaining neurons in the output layer output the value 0.0. Trains the second neuron in the output layer of the neural network 17 to output a value of 1.0 and the remaining neurons in the output layer to output a value of 0.0. Then, for example, when it is determined that there is an intersection, a program input in advance or a command signal from the sound collecting microphone 12 causes
After determining the traveling direction, the vehicle goes straight on or decelerates and turns left or right.

【0032】ここで、直線走行を行わせる場合であれ
ば、CCDカメラ9の中心位置が道路31の決められた
位置になるように従動車輪3の操舵角を計算し、これを
ステアリング用駆動機構、ここでは、ステアリング用モ
ータ駆動回路23に出力する。この時、用いる制御はフ
ァジィコントローラ20によるファジィ制御でも、通常
のPID制御でもよい。
Here, if straight driving is to be performed, the steering angle of the driven wheel 3 is calculated so that the center position of the CCD camera 9 is at a predetermined position on the road 31, and this is used as a steering drive mechanism. , Here, it outputs to the steering motor drive circuit 23. At this time, the control used may be fuzzy control by the fuzzy controller 20 or normal PID control.

【0033】また、右折走行又は左折走行の場合には、
CCDカメラ9による映像出力は各々同図(c)(d)
に示すようになり、徐々に路肩線32の様子が変わるも
のとなる。そして、同図(e)に示すように右折走行が
終了しようとしている場合、又は、同図(f)に示すよ
うに左折走行が終了しようしている場合には、これを認
識し、直線走行の準備を始める。この場合であっても、
CCDカメラ9の中心位置を道路31の所定位置(この
所定位置は、学習された映像によって変化させてもよ
い)にあるように、従動車輪3の操舵角及び駆動車輪2
の回転速度を制御することによって円滑に、右折又は左
折が完了することになる。
In the case of right turn or left turn,
The image output by the CCD camera 9 is shown in FIGS.
The state of the road shoulder line 32 gradually changes. Then, when the right turn traveling is about to end as shown in (e) of the figure, or when the left turn traveling is about to be completed as shown in (f) of the figure, this is recognized and straight traveling is performed. Start preparing. Even in this case,
The steering angle of the driven wheel 3 and the drive wheel 2 are set so that the center position of the CCD camera 9 is at a predetermined position on the road 31 (this predetermined position may be changed depending on the learned image).
A right turn or a left turn is smoothly completed by controlling the rotation speed of the.

【0034】即ち、画像処理して得られるパターンが同
図(a)に示すようなものである間は直進走行し、同図
(b)に示すようなパターンが得られる段階になると交
差点前であるので速度を下げて右折又は左折の準備を行
い、同図(c)又は(d)に示すようなパターンが得ら
れる段階では右折走行又は左折走行を続け、同図(e)
又は(f)に示すようなパターンが得られる段階になる
と右折又は左折が終了するので、直進走行の準備を行う
ことになる。各パターンは学習可能であるので、このよ
うなパターンに似た交差点での走行が可能となる。な
お、このような交差点の場合に限らず、三叉路、五叉路
等の場合、或いは、走行路上に障害物等があるような場
合でも、学習によって対応可能なことが理解できる。
That is, while the pattern obtained by the image processing is as shown in FIG. 7A, the vehicle travels straight ahead, and when the pattern as shown in FIG. Therefore, the speed is reduced to prepare for a right turn or a left turn, and when the pattern shown in (c) or (d) of the figure is obtained, the right turn or the left turn is continued, and the figure (e).
Alternatively, at the stage where the pattern as shown in (f) is obtained, the right turn or the left turn is completed, so preparation for straight running is made. Since each pattern can be learned, it is possible to drive at an intersection similar to such a pattern. It is understood that learning is applicable not only to such an intersection but also to a three-way road, a five-way road, or an obstacle on the road.

【0035】また、曲線走行を行う場合には、同図
(g)に示すような画面となるが、搭載したニューラル
ネットワーク17に曲線走行画面と判断させるように学
習させることにより、同図(g)に示すような画面の場
合には曲線走行画面と判断して、CCDカメラ9の中心
位置が道路31の画面の決められた位置P(例えば、中
央)に来るように駆動車輪2の回転数と従動車輪3の向
きとをファジィ制御又はPID制御を用いて計算し、モ
ータ駆動回路22,23に制御信号を出力させるように
すればよい。
Further, when the vehicle travels on a curved road, the screen as shown in FIG. 9 (g) is displayed, but by learning the built-in neural network 17 so that it is judged to be a curved road screen, the screen shown in FIG. In the case of the screen as shown in FIG. 8), it is determined that the screen is a curved traveling screen, and the rotational speed of the drive wheel 2 is set so that the center position of the CCD camera 9 comes to a predetermined position P (for example, the center) of the screen of the road 31. And the direction of the driven wheel 3 may be calculated using fuzzy control or PID control, and control signals may be output to the motor drive circuits 22 and 23.

【0036】以下、同様の手順を繰り返すことになる。
この場合、ニューラルネットワーク17に学習させる対
象物は、 CCDカメラ9の前面に見える道路31全体の形状
及びその特徴量 道路31上の白線や黄線の形状 その他(例えば、交通信号標識、道路31の色、C
CDカメラ9によって見える道路31の幅など)であ
る。
Thereafter, the same procedure will be repeated.
In this case, the object to be learned by the neural network 17 is the shape of the entire road 31 and its characteristic amount visible in front of the CCD camera 9. The shape of the white line or the yellow line on the road 31 and others (for example, traffic signal signs, road 31 Color, C
The width of the road 31 that can be seen by the CD camera 9).

【0037】また、本実施例の自立走行車1を掃除機や
草刈機に応用した場合の制御例を図4(a)を参照して
説明する。即ち、或る特定の領域内を隈無く走行させる
機器への応用例である。まず、壁などからなる目標物3
3を自立走行車1が現在停止している位置からCCDカ
メラ9によって撮影し、その映像出力データを処理しな
がら直進走行によって目標物33に到達するように制御
を行い、目標物33に到達したらUターン動作を行わ
せ、さらに予め学習された目標物に向かって直進走行を
行わせる。この際、ニューラルネットワーク17の実際
の出力信号を用いて自立走行車1を制御する代わりに、
望ましいニューラルネットワーク17の出力信号を外か
ら与えることにより自立走行車1を制御すると同時にそ
の望ましい出力信号を教師信号としてニューラルネット
ワーク17に与える。このような直進走行とUターン動
作との繰り返しを何度も実行することにより、この動作
をニューラルネットワーク17に学習させることができ
る。学習が終了した時点で、実際のニューラルネットワ
ーク17の出力信号を使って自立走行車1を制御するよ
うに切り替えれば自立走行車1は同図(a)に矢印軌跡
を示すように自立走行するようになる。
A control example when the self-supporting vehicle 1 of this embodiment is applied to a vacuum cleaner or a mowing machine will be described with reference to FIG. 4 (a). That is, this is an example of application to a device that travels in a certain specific area. First, the target object 3 consisting of walls, etc.
3 is photographed by the CCD camera 9 from the position where the self-driving vehicle 1 is currently stopped, and while controlling the image output data thereof, control is performed so as to reach the target 33 by straight traveling, and when the target 33 is reached. A U-turn operation is performed, and a straight running is performed toward a target object learned in advance. At this time, instead of controlling the autonomous vehicle 1 using the actual output signal of the neural network 17,
The self-supporting vehicle 1 is controlled by giving a desired output signal of the neural network 17 from the outside, and at the same time, the desired output signal is given to the neural network 17 as a teacher signal. By repeating such straight running and U-turn operation many times, the neural network 17 can be made to learn this operation. When the learning is completed, the output signal of the actual neural network 17 is used to switch to control the self-sustaining vehicle 1, so that the self-sustaining vehicle 1 travels independently as indicated by the arrow locus in FIG. become.

【0038】この場合、望ましいニューラルネットワー
ク17の出力信号を自立走行車1に搭載したコンピュー
タにより生成してニューラルネットワーク17に与える
ことで、常時ニューラルネットワーク17の学習が可能
となるように構成しておけば、壁などの目標物33の形
や色が日々変化するような環境下でも、自立走行車1に
その変化に適応して望ましい走行を維持させることがで
きる。
In this case, the desired output signal of the neural network 17 is generated by a computer mounted on the self-supporting vehicle 1 and given to the neural network 17, so that the neural network 17 can always be learned. For example, even in an environment in which the shape and color of the target object 33 such as a wall changes daily, the self-sustaining vehicle 1 can adapt to the change and maintain desired travel.

【0039】また、同図(b)に示すように、目標物3
4がゴルフボール等の場合であれば、この目標物34の
画像をニューラルネットワーク17が学習することによ
り、自立走行車1は目標物34に近付くように走行する
ことになる。
Further, as shown in FIG.
When 4 is a golf ball or the like, the neural network 17 learns the image of the target object 34, so that the autonomous traveling vehicle 1 travels so as to approach the target object 34.

【0040】さらに、他の応用例を説明する。例えば、
自立走行車1の前に他の自動車を走行させ、この自動車
をCCDカメラ9によって撮影し、前の自動車が右折或
いは左折しようとする場合の映像出力データ及び前の自
動車との距離を示す自動車の大きさ等の映像をニューラ
ルネットワーク17に学習させ、このように学習された
ニューラルネットワーク17を用いて走行を制御するこ
とにより、自立走行車1は前の自動車と常に一定の距離
を保って追尾することが可能となる。
Further, another application example will be described. For example,
Another vehicle is run in front of the self-supporting vehicle 1, this vehicle is photographed by the CCD camera 9, and the image output data and the distance from the previous vehicle when the previous vehicle tries to turn right or left are displayed. By letting the neural network 17 learn an image such as a size and controlling the traveling by using the neural network 17 learned in this way, the self-supporting vehicle 1 always keeps a certain distance from the vehicle in front of the vehicle. It becomes possible.

【0041】[0041]

【発明の効果】請求項1記載の発明の自立走行車によれ
ば、モータ、エンジン等の駆動手段と、走行環境を撮影
するテレビカメラと、実時間学習能力を有するニューラ
ルネットワークを備えて前記駆動手段の動作を制御する
制御手段とを車体に搭載した構成とし、前記テレビカメ
ラで撮影した映像を前記ニューラルネットワークで処理
して前記駆動手段の動作を制御するようにしたので、テ
レビカメラで撮影した走行路の状況をニューラルネット
ワークで認識判断できるため、予め検知対象物の配置さ
れていない不特定の場所であっても自立走行させること
ができ、かつ、このニューラルネットワークが実時間学
習能力を備えているので、学習と走行制御とを同時並列
的に行うことができることになり、予め学習させるとい
う前準備なしに、実際に走行路を走行させながら学習さ
せることができ、さらには、道路や路肩や壁などの形状
や色などのような走行環境が変化しても変化した環境に
適応しながら適切に走行させることもでき、また、この
ようなニューラルネットワークが車体に搭載されている
ので、搭載せずに信号線等により結んだ外部のニューラ
ルネットワークを用いるものに比して走行範囲が制約を
受けないものとすることができる。
According to the self-sustaining vehicle of the first aspect of the invention, the self-driving vehicle is provided with a driving means such as a motor and an engine, a television camera for photographing the traveling environment, and a neural network having a real-time learning ability. Since the control means for controlling the operation of the means is mounted on the vehicle body and the image taken by the television camera is processed by the neural network to control the operation of the driving means, the image is taken by the television camera. Since the condition of the road can be recognized and judged by a neural network, it can be driven independently even in an unspecified place where the object to be detected is not arranged in advance, and this neural network has a real-time learning capability. Therefore, learning and running control can be performed in parallel at the same time, and there is no preparation to learn in advance, In addition, you can learn while traveling on the road, and even if the traveling environment such as the shape and color of the road, shoulders, walls, etc. changes, you can appropriately drive while adapting to the changed environment Also, since such a neural network is mounted on the vehicle body, the traveling range is not restricted as compared with the one using an external neural network connected by a signal line without mounting the neural network. be able to.

【0042】請求項2記載の発明の自立走行車によれ
ば、モータ及びモータ駆動回路による駆動手段と、走行
環境を撮影するCCDカメラと、このCCDカメラの映
像出力を圧縮して2値化する画像処理手段と、この画像
処理手段の出力に基づき前記映像出力の特徴量を算出す
る特徴量算出手段及び誤差逆伝播学習法による実時間学
習能力を有する多層パーセプトロンによるハードウェア
ニューラルネットワークを備えて前記駆動回路の動作を
制御する制御手段とを車体に搭載した構成とし、前記C
CDカメラで撮影した映像に基づき算出された特徴量を
前記ハードウェアニューラルネットワークに入力して走
行環境の状態を判定させこの判定結果に基づく出力によ
り前記駆動回路の動作を制御するようにしたので、請求
項1記載の発明の自立走行車による効果に加えて、CC
Dカメラの映像出力に基づき特徴量算出手段で特徴量を
算出してハードウェアニューラルネットワークに入力さ
せているので、ニューラルネットワークの負担を減ら
し、ニューラルネットワークの学習を容易なものとする
ことができる上に、ニューラルネットワークの規模も小
さくでき、さらには、ハードウェアニューラルネットワ
ークが多層パーセプトロンによるため、ボルツマンマシ
ンのような別タイプのニューラルネットワークよりも高
速で動作させることができる。
According to the self-supporting vehicle of the second aspect of the present invention, the driving means including the motor and the motor drive circuit, the CCD camera for photographing the traveling environment, and the image output of the CCD camera are compressed and binarized. The image processing means, the feature amount calculating means for calculating the feature amount of the video output based on the output of the image processing means, and the hardware neural network by the multilayer perceptron having the real-time learning ability by the error backpropagation learning method are provided. The control means for controlling the operation of the drive circuit is mounted on the vehicle body,
Since the characteristic amount calculated based on the image captured by the CD camera is input to the hardware neural network to determine the state of the traveling environment and the output based on the determination result controls the operation of the drive circuit. In addition to the effect of the self-supporting vehicle of the invention according to claim 1, CC
Since the characteristic amount is calculated by the characteristic amount calculation means based on the image output of the D camera and is input to the hardware neural network, the load on the neural network can be reduced and the learning of the neural network can be facilitated. In addition, the scale of the neural network can be reduced, and since the hardware neural network is based on the multilayer perceptron, it can be operated at a higher speed than other types of neural networks such as the Boltzmann machine.

【0043】請求項3記載の発明の自立走行車によれ
ば、請求項2記載の発明の自立走行車におけるハードウ
ェアニューラルネットワークを、パルス密度論理演算型
ハードウェアニューラルネットワークとしたので、その
軽量で高速学習可能な特長を活かして、走行速度を高速
に保ちつつ制御を行うことができる。
According to the autonomous vehicle of the invention described in claim 3, since the hardware neural network in the autonomous vehicle of claim 2 is a pulse density logical operation type hardware neural network, it is lightweight. By taking advantage of the features that enable high-speed learning, it is possible to control while maintaining a high running speed.

【0044】請求項4記載の発明の自立走行車によれ
ば、請求項2又は3記載の発明の自立走行車の制御手段
中に、ハードウェアニューラルネットワークの出力を入
力としてモータ駆動回路に制御信号を出力するファジィ
コントローラを設けたので、一層制御能力を高めること
ができる。
According to the self-sustaining vehicle of the fourth aspect of the invention, the control means of the self-sustaining vehicle of the second or third aspect of the invention uses the output of the hardware neural network as an input to the motor drive circuit as a control signal. Since the fuzzy controller for outputting is provided, the control capability can be further enhanced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す制御系構成のブロック
図である。
FIG. 1 is a block diagram of a control system configuration showing an embodiment of the present invention.

【図2】自立走行車を示す概略構成図である。FIG. 2 is a schematic configuration diagram showing an autonomous traveling vehicle.

【図3】実際の走行例を想定した具体的な映像パターン
の各例を示す動作説明図である。
FIG. 3 is an operation explanatory diagram showing each example of a specific video pattern assuming an actual traveling example.

【図4】自立走行車の応用例の動作説明図である。FIG. 4 is an operation explanatory diagram of an application example of the self-sustaining vehicle.

【符号の説明】[Explanation of symbols]

6 モータ 8 制御手段 9 CCDカメラ(テレビカメラ) 10 画像処理手段 16 特徴量算出手段 17 実時間学習能力を有するニューラルネッ
トワーク 20 ファジィコントローラ 22,23 モータ駆動回路 24 モータ
6 motor 8 control means 9 CCD camera (television camera) 10 image processing means 16 feature amount calculation means 17 neural network with real-time learning ability 20 fuzzy controller 22, 23 motor drive circuit 24 motor

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 モータ、エンジン等の駆動手段と、走行
環境を撮影するテレビカメラと、実時間学習能力を有す
るニューラルネットワークを備えて前記駆動手段の動作
を制御する制御手段とを車体に搭載してなり、前記テレ
ビカメラで撮影した映像を前記ニューラルネットワーク
で処理して前記駆動手段の動作を制御するようにしたこ
とを特徴とする自立走行車。
1. A vehicle body equipped with driving means such as a motor and an engine, a television camera for photographing a traveling environment, and a control means provided with a neural network having a real-time learning ability to control the operation of the driving means. The self-supporting vehicle is characterized in that the image taken by the television camera is processed by the neural network to control the operation of the driving means.
【請求項2】 モータ及びモータ駆動回路による駆動手
段と、走行環境を撮影するCCDカメラと、このCCD
カメラの映像出力を圧縮して2値化する画像処理手段
と、この画像処理手段の出力に基づき前記映像出力の特
徴量を算出する特徴量算出手段及び誤差逆伝播学習法に
よる実時間学習能力を有する多層パーセプトロンによる
ハードウェアニューラルネットワークを備えて前記モー
タ駆動回路の動作を制御する制御手段とを車体に搭載し
てなり、前記CCDカメラで撮影した映像に基づき算出
された特徴量を前記ハードウェアニューラルネットワー
クに入力して走行環境の状態を判定させこの判定結果に
基づく出力により前記モータ駆動回路の動作を制御する
ようにしたことを特徴とする自立走行車。
2. A driving means including a motor and a motor driving circuit, a CCD camera for photographing a traveling environment, and the CCD.
Image processing means for compressing and binarizing the video output of the camera, feature quantity calculating means for calculating the feature quantity of the video output based on the output of the image processing means, and real-time learning ability by the error back propagation learning method. A control means for controlling the operation of the motor drive circuit, which comprises a hardware neural network having a multi-layered perceptron, is mounted on the vehicle body, and the feature amount calculated based on the image taken by the CCD camera is used as the hardware neural network. A self-sustaining vehicle, characterized in that a state of a traveling environment is input to a network and the operation of the motor drive circuit is controlled by an output based on the result of the determination.
【請求項3】 ハードウェアニューラルネットワーク
を、パルス密度論理演算型ハードウェアニューラルネッ
トワークとしたことを特徴とする請求項2記載の自立走
行車。
3. The self-supporting vehicle according to claim 2, wherein the hardware neural network is a pulse density logical operation type hardware neural network.
【請求項4】 制御手段中に、ハードウェアニューラル
ネットワークの出力を入力としてモータ駆動回路に制御
信号を出力するファジィコントローラを設けたことを特
徴とする請求項2又は3記載の自立走行車。
4. The self-sustaining vehicle according to claim 2 or 3, wherein the control means is provided with a fuzzy controller which outputs a control signal to a motor drive circuit using an output of a hardware neural network as an input.
JP6099681A 1994-05-13 1994-05-13 Autonomous-running vehicle Pending JPH07306717A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6099681A JPH07306717A (en) 1994-05-13 1994-05-13 Autonomous-running vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6099681A JPH07306717A (en) 1994-05-13 1994-05-13 Autonomous-running vehicle

Publications (1)

Publication Number Publication Date
JPH07306717A true JPH07306717A (en) 1995-11-21

Family

ID=14253782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6099681A Pending JPH07306717A (en) 1994-05-13 1994-05-13 Autonomous-running vehicle

Country Status (1)

Country Link
JP (1) JPH07306717A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200246A (en) * 2006-01-30 2007-08-09 Sharp Corp Method for evaluating image processing algorithm, method, device, and program for generating same algorithm, and recording medium
JP2017220197A (en) * 2016-06-12 2017-12-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Vehicle control method and apparatus, and method and apparatus for acquiring decision-making module
CN109164811A (en) * 2018-10-23 2019-01-08 广东嘉腾机器人自动化有限公司 A kind of shuttle vehicle control and method
CN109541943A (en) * 2018-12-07 2019-03-29 西南交通大学 A kind of tramcar on-line optimizing and controlling method
US10839230B2 (en) 2018-09-06 2020-11-17 Ford Global Technologies, Llc Multi-tier network for task-oriented deep neural network

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200246A (en) * 2006-01-30 2007-08-09 Sharp Corp Method for evaluating image processing algorithm, method, device, and program for generating same algorithm, and recording medium
JP2017220197A (en) * 2016-06-12 2017-12-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Vehicle control method and apparatus, and method and apparatus for acquiring decision-making module
US10429841B2 (en) 2016-06-12 2019-10-01 Baidu Online Network Technology (Beijing) Co., Ltd. Vehicle control method and apparatus and method and apparatus for acquiring decision-making model
US10839230B2 (en) 2018-09-06 2020-11-17 Ford Global Technologies, Llc Multi-tier network for task-oriented deep neural network
CN109164811A (en) * 2018-10-23 2019-01-08 广东嘉腾机器人自动化有限公司 A kind of shuttle vehicle control and method
CN109541943A (en) * 2018-12-07 2019-03-29 西南交通大学 A kind of tramcar on-line optimizing and controlling method

Similar Documents

Publication Publication Date Title
JPH1049230A (en) Unmanned automobile system equipped with control function based on road condition
US20200079359A1 (en) Automated parking device and automated parking method
US5963663A (en) Land mark recognition method for mobile robot navigation
CN104797488A (en) Driving assistance device
JP7472832B2 (en) Vehicle control device, vehicle control method, and vehicle control computer program
JPH03113513A (en) Speed-sensitive steering controller for self-traveling vehicle
JPH07306717A (en) Autonomous-running vehicle
JP2707546B2 (en) Vehicle steering control device
JP3394287B2 (en) Independent traveling vehicle
JPH03286315A (en) Automatic steering device
JPS60157611A (en) Controller of unmanned conveying car
JPH09167017A (en) Traveling controller for unmanned vehicle
JPH06270083A (en) Work position detector
JPH02212906A (en) Multi-leg type moving device
JPS63273915A (en) Driving course forming device
JPH1083455A (en) Object recognizing device and method
JP7554622B2 (en) Autonomous mobile work device and work management system
JP2003276542A (en) Rearward monitoring device for vehicle
KR100199757B1 (en) Unmanded vehicle and driving method
US20240262345A1 (en) Park assist device, program, and park assist method
Muratov et al. Convolutional Neural Networks Towards Arduino Navigation of Indoor Environments
WO2024071240A1 (en) Control device
JPH0410645B2 (en)
EP4432041A1 (en) Controller, system and method of remotely controlling a mobile vehicle
JPH03113515A (en) Steering controller for switchback of vehicle