JP3036301B2 - Obstacle detection device for unmanned vehicles - Google Patents

Obstacle detection device for unmanned vehicles

Info

Publication number
JP3036301B2
JP3036301B2 JP5167543A JP16754393A JP3036301B2 JP 3036301 B2 JP3036301 B2 JP 3036301B2 JP 5167543 A JP5167543 A JP 5167543A JP 16754393 A JP16754393 A JP 16754393A JP 3036301 B2 JP3036301 B2 JP 3036301B2
Authority
JP
Japan
Prior art keywords
unmanned vehicle
obstacle
detection
blowing
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5167543A
Other languages
Japanese (ja)
Other versions
JPH0772248A (en
Inventor
睦生 小原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP5167543A priority Critical patent/JP3036301B2/en
Publication of JPH0772248A publication Critical patent/JPH0772248A/en
Application granted granted Critical
Publication of JP3036301B2 publication Critical patent/JP3036301B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Indicating Or Recording The Presence, Absence, Or Direction Of Movement (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、無人車両用障害物検出
装置に係り、特に無人車両の周囲に存在する物体が走行
に障害となるか否かを識別する場合に好適な無人車両用
障害物検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an obstacle detection device for an unmanned vehicle, and more particularly to an obstacle detection system for an unmanned vehicle which is suitable for identifying whether or not an object existing around the unmanned vehicle interferes with traveling. The present invention relates to an object detection device.

【0002】[0002]

【従来の技術】各種の作業に使用される自律型無人車両
の一種に、例えば屋外の不整地を走行させて所定の作業
を行わせるようにした無人車両がある。この種の従来の
自律型無人車両では、走行時や作業時に車両周囲に存在
する物体の性質(物体の2次元形状,3次元形状,物体
の色,車両の物体に対する相対的位置等)を検出する必
要があるが、検出方式としては下記の方式があった。
2. Description of the Related Art One type of autonomous unmanned vehicle used for various kinds of work is, for example, an unmanned vehicle in which a predetermined work is performed by running on rough terrain outdoors. With this type of conventional autonomous unmanned vehicle, the properties of the objects (two-dimensional shape, three-dimensional shape, color of the object, relative position of the object with respect to the object, etc.) existing around the vehicle during traveling or work are detected. However, the following detection methods were used.

【0003】即ち、無人車両にビデオカメラを1台搭載
して車両周囲の物体の2次元形状や色を検出する方式、
無人車両に2台のビデオカメラを搭載して車両周囲の物
体をステレオ視することにより物体の3次元形状や車両
の物体に対する相対的位置を検出する方式、無人車両に
搭載したレーザレンジファインダ(レーザレーダ)で物
体の3次元形状や車両の物体に対する相対的位置を検出
する方式、無人車両に装備した超音波センサで物体の3
次元形状や車両の物体に対する相対的位置を検出する方
式、無人車両に装備したリミットスイッチ等の触覚セン
サで物体の存在を検出する方式、等が用いられていた。
That is, a method in which one video camera is mounted on an unmanned vehicle to detect the two-dimensional shape and color of an object around the vehicle,
A method of detecting the three-dimensional shape of an object and the relative position of the vehicle with respect to the object by stereoscopically viewing objects around the vehicle by mounting two video cameras on the unmanned vehicle, a laser range finder (laser mounted on the unmanned vehicle) Radar) to detect the three-dimensional shape of the object and the relative position of the vehicle to the object.
A method of detecting a three-dimensional shape or a relative position of a vehicle with respect to an object, a method of detecting the presence of an object with a tactile sensor such as a limit switch mounted on an unmanned vehicle, and the like have been used.

【0004】[0004]

【発明が解決しようとする課題】ところで、前述した従
来の検出方式の内,ビデオカメラやレーザレーダを用い
た検出方式では、無人車両の進路上に或る大きさ以上の
物体が存在する場合には、その物体を全て障害物として
認識していた。従って、ビデオカメラやレーザレーダを
搭載した無人車両を例えば工場等の限定され整理された
場所で運用する場合は、無人車両の進路上に存在する或
る大きさ以上の物体を障害物として認識することは何等
問題は無い。しかしながら、当該無人車両を屋外の不整
地で運用する場合、構造物・壁・大木等を障害物として
認識することは構わないが,車両走行に支障が無い程度
の草木等も構造物や大木等と同様の障害物として誤認識
してしまう問題があった。このため、草原のような場所
では、無人車両が立ち往生して運用が出来なくなる不具
合があった。また、超音波センサや触覚センサを用いた
検出方式では、センサが障害物等と接触してセンサ機能
をそこなう可能性があった。
Among the above-mentioned conventional detection methods, the detection method using a video camera or a laser radar is used when an object of a certain size or more exists on the path of an unmanned vehicle. Recognized all of the objects as obstacles. Therefore, when an unmanned vehicle equipped with a video camera or a laser radar is operated in a limited and organized place such as a factory, an object of a certain size or more existing on the course of the unmanned vehicle is recognized as an obstacle. There is no problem at all. However, when the unmanned vehicle is operated on uneven terrain outdoors, structures, walls, large trees, etc. may be recognized as obstacles. There is a problem that it is erroneously recognized as an obstacle similar to the above. For this reason, in places such as grasslands, there was a problem that unmanned vehicles were stuck and could not be operated. Further, in a detection method using an ultrasonic sensor or a tactile sensor, there is a possibility that the sensor may contact an obstacle or the like to impair the sensor function.

【0005】[0005]

【発明の目的】本発明は、上記従来例の有する不都合を
改善し、特に、無人車両周囲に存在する物体が走行に障
害となるか否かを識別することにより、無人車両の円滑
な運用を可能とした無人車両用障害物検出装置の提供を
目的とする。
SUMMARY OF THE INVENTION The object of the present invention is to improve the disadvantages of the prior art described above, and in particular, to determine whether or not an object existing around an unmanned vehicle interferes with traveling, thereby enabling smooth operation of the unmanned vehicle. It is an object of the present invention to provide an unmanned vehicle obstacle detection device that is enabled.

【0006】[0006]

【課題を解決するための手段】本発明は、無人車両の外
部における物体の有無及び位置を超音波センサ等により
検出する物体検出手段と、前記無人車両外部の状況を撮
影する撮影手段と、前記無人車両外部へ向けて風を送り
出す送風手段と、前記各手段を制御する制御手段とを備
え、該制御手段が、前記物体検出手段による物体検出に
伴い前記送風手段を作動して検出物体へ向けて送風を開
始させる送風開始タイミング制御機能と,検出物体の送
風開始前の撮影画像と送風開始後の撮影画像とを比較し
て検出物体が揺らいだか否かを判定する揺らぎ判定機能
と,検出物体が揺らいだ場合は検出物体を非障害物と判
定し検出物体が揺らがない場合は検出物体を障害物と判
定する障害物判定機能とをする構成としている。これに
より、前述した目的を達成しようとするものである。
According to the present invention, there is provided an object detecting means for detecting the presence / absence and position of an object outside an unmanned vehicle by an ultrasonic sensor or the like; a photographing means for photographing a situation outside the unmanned vehicle; Blower means for sending wind toward the outside of the unmanned vehicle, and control means for controlling the respective means, the control means actuating the blower means in accordance with the detection of the object by the object detection means and directed to the detected object A start-up timing control function to start air blowing, a fluctuation judgment function to compare the photographed image of the detected object before the start of air blowing and a photographed image after the start of the air blow to determine whether the detected object has fluctuated, and a detection object When the object fluctuates, the detection object is determined to be a non-obstacle, and when the detection object does not fluctuate, the detection object is determined to be an obstacle. This aims to achieve the above-mentioned object.

【0007】[0007]

【作用】本発明によれば、無人車両外部に存在する物体
の位置ばかりでなく,無人車両外部に存在する物体へ送
風して物体が揺らいだか否かに基づき物体が無人車両の
走行に障害となる障害物であるか走行に障害とならない
非障害物であるかを検出するため、無人車両外部の状況
を的確に把握することが可能となる。従って、物体が無
人車両の走行に障害とならないもの(例えば草木等)で
ある場合は無人車両を通常走行させ,物体が無人車両の
走行に障害となるもの(例えば構造物や大木等)である
場合は無人車両の走行を一旦停止させる等,無人車両の
外部の状況に応じた運用が可能となる。この結果、従来
の如く無人車両の走行に支障が無い程度の草木等も障害
物として誤認識して無人車両が立ち往生するといった不
具合を解消できるため、無人車両を例えば草原等におい
ても支障なく運用することが可能となる。
According to the present invention, not only the position of the object existing outside the unmanned vehicle but also the obstacle to the running of the unmanned vehicle is determined based on whether or not the object swings by blowing to the object existing outside the unmanned vehicle. Since it is detected whether the vehicle is an obstacle or a non-obstacle that does not hinder traveling, it is possible to accurately grasp the situation outside the unmanned vehicle. Therefore, if the object does not hinder the traveling of the unmanned vehicle (for example, plants and trees), the unmanned vehicle is caused to travel normally, and the object becomes the obstacle to the traveling of the unmanned vehicle (eg, a structure or a large tree). In such a case, operation according to the external situation of the unmanned vehicle, such as temporarily stopping the running of the unmanned vehicle, becomes possible. As a result, it is possible to eliminate such a problem that plants and the like that do not hinder the running of the unmanned vehicle as an obstacle are erroneously recognized as obstacles and the unmanned vehicle is stuck, so that the unmanned vehicle can be operated without trouble even in a grassland or the like. It becomes possible.

【0008】[0008]

【実施例】以下、本発明の無人車両用障害物検出装置を
自律型無人車両に適用してなる実施例を図面に基づいて
説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which an unmanned vehicle obstacle detection device of the present invention is applied to an autonomous unmanned vehicle will be described below with reference to the drawings.

【0009】先ず、本実施例の障害物検出装置を搭載し
た自律型無人車両(以下無人車両と略称)の全体構成を
図2に基づき説明すると、自立走行して所定の作業を行
う無人車両1は、三次元物体認識装置2と、障害物検出
装置3と、統合制御装置4とを装備した構成となってい
る。無人車両1は、車両周囲の作業領域或いは車両の進
路上に存在する物体へ向けて風を送り送風に伴う物体の
揺らぎを検出すると共に、揺らぎの有無に基づき当該物
体が走行や作業に障害となるか否かを識別する機能を備
えている。図中符号5,6は走行輪を示す。
First, an overall configuration of an autonomous unmanned vehicle (hereinafter abbreviated as an unmanned vehicle) equipped with the obstacle detection device of the present embodiment will be described with reference to FIG. Is configured to include a three-dimensional object recognition device 2, an obstacle detection device 3, and an integrated control device 4. The unmanned vehicle 1 sends wind toward a work area around the vehicle or an object existing on the path of the vehicle, detects the fluctuation of the object due to the air blowing, and determines whether the object is obstructed to travel or work based on the presence or absence of the fluctuation. It has a function to determine whether or not it will be. Reference numerals 5 and 6 in the figure indicate running wheels.

【0010】三次元物体認識装置2は、例えば超音波セ
ンサ2Aにより無人車両周囲の作業領域或いは無人車両
の進路上に存在する物体の形状や位置等を常時検出し、
検出データを統合制御装置4へ出力するようになってい
る。この場合、超音波センサを使用する代わりにビデオ
カメラ或いはレーザレンジファインダ(レーザレーザ)
を使用して物体の形状や位置等を検出してもよい。
The three-dimensional object recognizing device 2 constantly detects, for example, the shape and position of an object existing in the work area around the unmanned vehicle or on the course of the unmanned vehicle by the ultrasonic sensor 2A,
The detection data is output to the integrated control device 4. In this case, use a video camera or laser range finder (laser laser) instead of using an ultrasonic sensor.
May be used to detect the shape and position of the object.

【0011】障害物検出装置3は、統合制御装置4から
検出すべき物体の方位を示す検出方位指令値が入力され
てくると、三次元物体認識装置2で検出した無人車両周
囲の作業領域或いは無人車両の進路上に存在する物体へ
送風して当該物体が揺らぐか否か,換言すれば当該物体
が無人車両の走行に障害とならない柔らかい物体か走行
に障害となる丈夫な物体かを検出し、検出結果に応じて
障害物データまたは非障害物データを統合制御装置4へ
出力するようになっている。この場合、無人車両1を運
用する場所が不整地である時は、例えば構造物や大木等
は障害物であり、草木等は非障害物である。
When a detection direction command value indicating the direction of an object to be detected is input from the integrated control device 4 to the obstacle detection device 3, the obstacle detection device 3 detects a work area around the unmanned vehicle detected by the three-dimensional object recognition device 2 or Detects whether or not the object fluctuates by blowing on the object existing on the path of the unmanned vehicle, in other words, whether the object is a soft object that does not hinder the traveling of the unmanned vehicle or a robust object that hinders the traveling. The obstacle data or the non-obstacle data is output to the integrated control device 4 according to the detection result. In this case, when the place where the unmanned vehicle 1 is operated is on uneven terrain, for example, structures and large trees are obstacles, and plants and the like are non-obstacles.

【0012】統合制御装置4は、三次元物体認識装置2
から無人車両の作業領域或いは無人車両の進路上に存在
する物体の形状や位置等を示す検出データが入力されて
くると、検出データに基づき当該物体が位置している方
位を検出すると共に、障害物検出装置3に対し当該物体
が無人車両にとって障害となるか否かを検出させるべく
検出方位指令値を出力するようになっている。
The integrated control device 4 includes the three-dimensional object recognition device 2
When detection data indicating the shape or position of an object existing in the work area of the unmanned vehicle or on the path of the unmanned vehicle is input from the device, the azimuth where the object is located is detected based on the detection data, and the obstacle is detected. A detection azimuth command value is output to the object detection device 3 to detect whether or not the object becomes an obstacle to the unmanned vehicle.

【0013】更に、統合制御装置4は、三次元物体認識
装置2により検出された物体と,障害物検出装置3によ
り非障害物として検出された物体との対応付けを行い、
三次元物体認識装置2で検出した物体のなかから障害物
検出装置3で非障害物として検出した物体を除外するよ
うになっている。そして、統合制御装置4は、無人車両
の作業領域或いは無人車両の進路上に存在する物体が非
障害物(例えば草木等)であると判定した場合は、駆動
機構(図示略)を制御して無人車両を通常走行させるよ
うになっている。
Further, the integrated control device 4 associates the object detected by the three-dimensional object recognition device 2 with the object detected as a non-obstacle by the obstacle detection device 3,
The objects detected by the obstacle detection device 3 as non-obstacles are excluded from the objects detected by the three-dimensional object recognition device 2. When the integrated control device 4 determines that the object existing in the work area of the unmanned vehicle or the path of the unmanned vehicle is a non-obstacle (for example, a plant or the like), the integrated control device 4 controls a driving mechanism (not shown). An unmanned vehicle is normally driven.

【0014】次に、障害物検出装置3の詳細構成を図1
に基づき説明すると、障害物検出装置3は、送風部7
と、ビデオカメラ部8と、姿勢制御部9と、画像処理部
10と、主制御部11とを備える構成となっており、送
風部7及びビデオカメラ部8は、雲台12に固定されて
いる。雲台12にはサーボ機構13が付設され、姿勢制
御部9には、サーボ機構14が付設されている。
Next, the detailed configuration of the obstacle detection device 3 is shown in FIG.
The obstacle detection device 3 includes a blower 7
, A video camera unit 8, an attitude control unit 9, an image processing unit 10, and a main control unit 11. The blower unit 7 and the video camera unit 8 are fixed to a camera platform 12. I have. The head 12 is provided with a servo mechanism 13, and the attitude control unit 9 is provided with a servo mechanism 14.

【0015】送風部7は、無人車両の作業領域或いは無
人車両の進路上に存在する物体へ脈動的な風をあてる送
風機及び風を発射するノズル等から構成されており、主
制御部11から信号線15を介して送風開始指令が入力
されてくると、送風機で断続的に風を発生しノズルから
物体へ向けて風(脈動風)を発射するようになってい
る。また、送風部7は、主制御部11から信号線15を
介して送風停止指令が入力されてくると、送風機による
断続的な風の発生を停止するようになっている。この場
合、例えば草木等の柔らかい物体へ継続的に送風する
と、当該物体が揺らぎ放し状態となり当該物体が送風が
原因で揺らいでいるのかを確認できないため、本実施例
では、物体へ断続的に送風することにより物体の揺らぎ
の有無を確認し易くするようになっている。
The blower 7 comprises a blower for blowing pulsating wind to an object existing in the working area of the unmanned vehicle or the path of the unmanned vehicle, a nozzle for emitting wind, and the like. When a blow start command is input via the line 15, the blower intermittently generates wind and blows wind (pulsating wind) from the nozzle toward the object. In addition, when a blow stop command is input from the main control unit 11 via the signal line 15, the blower 7 stops the intermittent generation of wind by the blower. In this case, for example, if air is continuously blown to a soft object such as a plant or the like, the object is in an unsteady state and it cannot be checked whether the object is fluctuating due to the air blow. By doing so, it is easy to confirm the presence or absence of the fluctuation of the object.

【0016】ビデオカメラ部8は、姿勢制御部9により
雲台12を介して送風部7と共にその姿勢が制御される
ようになっており、送風部7から風を発射する前と風を
発射した後の被検出物体の画像を撮影し、画像処理部1
0へ信号線16を介して送風前の被検出物体の原画像デ
ータ及び送風後の被検出物体の原画像データを出力する
ようになっている。
The attitude of the video camera section 8 is controlled by the attitude control section 9 together with the blower section 7 via the camera platform 12, and the video camera section 8 emits the wind before and from the blower section 7. An image of the object to be detected later is photographed, and the image processing unit 1
The original image data of the detected object before the air blowing and the original image data of the detected object after the air blowing are output to signal line 0 through signal line 16.

【0017】姿勢制御部9は、主制御部11から信号線
17を介して検出方位指令値が入力されてくると、サー
ボ機構14,13を介して雲台12の角度を調整するこ
とにより、送風部7から発射する風が被検出物体へあた
るように,且つビデオカメラ部8の撮像範囲に被検出物
体が入るように、送風部7及びビデオカメラ部8の方位
を制御するようになっている。また、姿勢制御部8は、
送風部7及びビデオカメラ部8の実際の方位が検出方位
指令値に合致した時は、主制御部11へ信号線17を介
して姿勢制御終了応答を出力し、姿勢制御が終了した旨
を報告するようになっている。
The attitude control unit 9 adjusts the angle of the camera platform 12 via the servo mechanisms 14 and 13 when the detected azimuth command value is input from the main control unit 11 via the signal line 17. The azimuths of the blower unit 7 and the video camera unit 8 are controlled so that the wind emitted from the blower unit 7 hits the detected object and the detected object enters the imaging range of the video camera unit 8. I have. In addition, the posture control unit 8
When the actual azimuths of the blower unit 7 and the video camera unit 8 match the detected azimuth command value, an attitude control end response is output to the main control unit 11 via the signal line 17 to report that the attitude control has ended. It is supposed to.

【0018】画像処理部10は、図3に示す如く、ビデ
オカメラ部8へ信号線16により接続された画像入力部
21と、主制御部11へ信号線18により接続されると
共に統合制御装置4へ信号線19により接続されたデー
タ通信部22と、送風前の被検出物体の画像を記憶する
領域,送風後の被検出物体の画像を記憶する領域,作業
領域,プログラム領域等を有するメモリ23と、統合制
御装置4へ信号線20により接続された画像出力部24
と、CPU(中央処理装置)25を備える構成となって
いる。図中符号26は信号送受用のバスを示す。
As shown in FIG. 3, the image processing unit 10 has an image input unit 21 connected to the video camera unit 8 by a signal line 16, and an image processing unit 10 connected to the main control unit 11 by a signal line 18, and an integrated control unit 4. And a memory 23 having an area for storing an image of the detected object before blowing, an area for storing an image of the detected object after blowing, a work area, a program area, and the like. And an image output unit 24 connected to the integrated control device 4 by a signal line 20
And a CPU (Central Processing Unit) 25. In the figure, reference numeral 26 indicates a bus for transmitting and receiving signals.

【0019】画像処理部10は、主制御部11から信号
線18を介して画像取込み指令SA,SB(後述)が入
力されてくると、ビデオカメラ部8から信号線16を介
して送風前及び送風後の被検出物体の画像データを取込
み、画像データの取込みが終了した時は主制御部11へ
信号線18を介して画像取込み終了応答を出力するよう
になっている。また、画像処理部10は、統合制御装置
4へ信号線20を介して画像処理結果に基づく非障害物
データまたは障害物データを出力すると共に,信号線1
9を介して入力完了応答を出力するようになっている。
画像処理の詳細については、図5において詳述する。
When an image capture command SA or SB (described later) is input from the main control unit 11 via a signal line 18 to the image processing unit 10, the image processing unit 10 transmits the image capture command SA or SB via the signal line 16 from the video camera unit 8 before the air is blown. The image data of the detected object is blown after the air is blown, and when the image data is completely captured, an image capture completion response is output to the main control unit 11 via the signal line 18. The image processing unit 10 outputs non-obstacle data or obstacle data based on the image processing result to the integrated control device 4 via the signal line 20, and outputs the signal line 1.
9, an input completion response is output.
Details of the image processing will be described in detail with reference to FIG.

【0020】主制御部11は、統合制御装置4から信号
線27を介して検出すべき物体の方位を示す検出方位指
令値が入力されてくると、姿勢制御部9へ信号線17を
介して検出方位指令値を出力し、姿勢制御部9から信号
線17を介して姿勢制御終了応答が入力されてくると、
画像処理部10へ信号線18を介して送風前の被検出物
体の画像を取込ませる画像取込み指令SAを出力するよ
うになっている。
When a detected direction command value indicating the direction of the object to be detected is input from the integrated control device 4 via the signal line 27 from the integrated control device 4, the main control unit 11 sends the detected direction command value to the attitude control unit 9 via the signal line 17. When a detection direction command value is output and a posture control end response is input from the posture control unit 9 via the signal line 17,
An image capture command SA for capturing an image of the detected object before blowing is output to the image processing unit 10 via a signal line 18.

【0021】また、主制御部11は、画像処理部10か
ら信号線18を介して画像取込み指令SAに基づく画像
取込み終了応答が入力されてくると、送風部7へ信号線
15を介して送風開始指令を出力して被検出物体への送
風を開始させた後、送風部7の風が被検出物体へあたる
迄の充分な時間をおいてから、画像処理部10へ信号線
18を介して送風後の(風があてられた)被検出物体の
画像を取込ませる画像取込み指令SBを出力するように
なっている。更に、主制御部11は、画像処理部10か
ら信号線18を介して画像取込み指令SBに基づく画像
取込み終了応答が入力されてくると、送風部7へ信号線
15を介して送風停止指令を出力して被検出物体への送
風を停止させるようになっている。
When a response to the completion of image capture based on the image capture command SA is input from the image processor 10 via the signal line 18, the main controller 11 blows air to the blower 7 via the signal line 15. After outputting a start command to start blowing air to the detected object, a sufficient time is required until the wind of the blowing unit 7 hits the detected object, and then the image processing unit 10 is transmitted to the image processing unit 10 via the signal line 18. An image capture command SB for capturing an image of the detected object after blowing (the wind is blown) is output. Further, when an image capture end response based on the image capture command SB is input from the image processor 10 via the signal line 18, the main controller 11 sends a blow stop command to the blower 7 via the signal line 15. The air is output to stop blowing air to the detected object.

【0022】次に、上記の如く構成した本実施例におけ
る障害物検出動作を図4及び図5を中心に説明する。
Next, an obstacle detection operation in the embodiment constructed as described above will be described mainly with reference to FIGS.

【0023】無人車両1の走行時において、三次元物体
認識装置2は、超音波センサにより、無人車両周囲の作
業領域或いは無人車両の進路上に存在する物体の形状や
位置等を常時検出し、検出データを統合制御装置4へ出
力する。
When the unmanned vehicle 1 is traveling, the three-dimensional object recognizing device 2 always detects the shape and position of the object existing in the working area around the unmanned vehicle or on the course of the unmanned vehicle by the ultrasonic sensor. The detection data is output to the integrated control device 4.

【0024】他方、障害物検出装置3の主制御部11
は、統合制御装置4から信号線27を介して検出方位指
令値が入力されてくると(ステップS1)、姿勢制御部
9へ信号線17を介して検出方位指令値を出力する(ス
テップS2)。これにより、姿勢制御部11は、サーボ
機構14,13を介して雲台12の角度を調整すること
により、送風部7から発射する風が被検出物体へあたる
ように,且つビデオカメラ部8の撮像範囲に被検出物体
が入るように、送風部7及びビデオカメラ部8の方位を
制御する。検出方位が制御されたビデオカメラ部8は、
送風部7から送風される前の被検出物体の画像を撮影す
る。
On the other hand, the main controller 11 of the obstacle detection device 3
When the detected azimuth command value is input from the integrated control device 4 via the signal line 27 (step S1), the detected azimuth command value is output to the attitude control unit 9 via the signal line 17 (step S2). . Thereby, the attitude control unit 11 adjusts the angle of the camera platform 12 via the servo mechanisms 14 and 13 so that the wind emitted from the blower unit 7 hits the detection target object and the video camera unit 8 The azimuth of the blower unit 7 and the video camera unit 8 is controlled so that the detected object enters the imaging range. The video camera unit 8 in which the detection direction is controlled,
An image of the detected object before being blown from the blower 7 is captured.

【0025】主制御部11は、送風部7及びビデオカメ
ラ部8の実際の方位が検出方位指令値に合致したことに
伴い姿勢制御部9から信号線17を介して姿勢制御終了
応答が入力されてくると(ステップS3)、画像処理部
10へ信号線18を介して送風前の被検出物体の画像を
取込ませる画像取込み指令SAを出力する(ステップS
4)。これにより、画像処理部10は、ビデオカメラ部
8から信号線16を介して送風前の被検出物体の画像A
を取込む。
The main control unit 11 receives an attitude control end response from the attitude control unit 9 via the signal line 17 when the actual directions of the blower unit 7 and the video camera unit 8 match the detected azimuth command value. When it comes (step S3), an image capture command SA for capturing an image of the detected object before blowing is output to the image processing unit 10 via the signal line 18 (step S3).
4). As a result, the image processing unit 10 transmits the image A of the detected object before blowing from the video camera unit 8 via the signal line 16.
Take in.

【0026】主制御部11は、画像処理部10から信号
線18を介して画像取込み指令SAに基づく画像取込み
終了応答が入力されてくると(ステップS5)、送風部
7へ信号線15を介して送風開始指令を出力する(ステ
ップS6)。これにより、送風部7は、送風機で断続的
な風を発生しノズルから被検出物体へ向けて風を発射す
る。この時、ビデオカメラ部8は、送風部7から風があ
てられた被検出物体の画像を撮影する。
When the main controller 11 receives an image capture end response based on the image capture command SA from the image processor 10 via the signal line 18 (step S5), the main controller 11 sends the signal to the blower 7 via the signal line 15. To output a blow start command (step S6). As a result, the blower 7 generates intermittent wind by the blower and emits the wind from the nozzle toward the detected object. At this time, the video camera unit 8 captures an image of the detected object blown by the blower 7.

【0027】主制御部11は、送風開始指令の出力後、
送風部7の風が被検出物体へあたる迄の充分な時間をお
いてから、画像処理部10へ信号線18を介して送風後
の被検出物体の画像を取込ませる画像取込み指令SBを
出力する(ステップS7)。これにより、画像処理部1
0は、ビデオカメラ部8から信号線16を介して送風後
の(風があてられた)被検出物体の画像Bを取込む。
After the main control unit 11 outputs the blow start command,
After a sufficient time until the wind of the blower 7 hits the detected object, an image capture command SB is output to the image processor 10 via the signal line 18 to capture the image of the detected object after blowing. (Step S7). Thereby, the image processing unit 1
0 captures an image B of the detected object to which the air has been blown (to which the wind has been applied) from the video camera unit 8 via the signal line 16.

【0028】画像処理部10は、上記ステップS4の画
像取込み指令SAに基づきビデオカメラ部8から取込ん
だ送風前の被検出物体の画像Aのエッジと,上記ステッ
プS7の画像取込み指令SBに基づきビデオカメラ部8
から取込んだ送風後の(風があてられた)被検出物体の
画像Bのエッジとを抽出し、エッジを抽出した後の画像
A’と画像B’とを比較し、画像A’と画像B’との論
理積を取ることにより、送風しても揺らがない画像C
(図示例では大木)を検出する。
The image processing unit 10 determines the edge of the image A of the detected object before the air blown in from the video camera unit 8 based on the image capture command SA in step S4 and the image capture command SB in step S7. Video camera section 8
The edge of the image B of the object to be detected after blown (taken by the wind) taken from the image B is extracted, the image A ′ after the extracted edge is compared with the image B ′, and the image A ′ and the image are compared. Image C that does not fluctuate even when blown by taking the logical product with B '
(A large tree in the illustrated example) is detected.

【0029】次に、画像処理部10は、送風しても揺ら
がない画像Cからノイズフィルタ(図示略)でノイズ
N,N’(画像処理後の草木等の痕跡画像)を除去し、
ノイズを除去した動揺しない画像C’を障害物データと
して統合制御装置4へ信号線20を介して出力する。ま
た、画像処理部10は、エッジ抽出後の画像A’からノ
イズ除去後の揺らがない画像C’を差し引き、得た画像
D(図示例では草木)を非障害物データとして統合制御
装置4へ信号線20を介して出力する。
Next, the image processing section 10 removes noises N and N '(trace images of plants and the like after image processing) from the image C which does not fluctuate even when the air is blown, using a noise filter (not shown).
The unstabilized image C ′ from which noise has been removed is output as obstacle data to the integrated control device 4 via the signal line 20. Further, the image processing unit 10 subtracts the image C ′ having no fluctuation after noise removal from the image A ′ after the edge extraction, and outputs the obtained image D (plants in the illustrated example) to the integrated control device 4 as non-obstacle data. Output via line 20.

【0030】これにより、統合制御装置4は、三次元物
体認識装置2により検出した物体と,障害物検出装置3
により非障害物として検出した物体との対応付けを行
い、三次元物体認識装置2で検出した物体のなかから障
害物検出装置3で非障害物(例えば草木等)として検出
した物体を除外する。即ち、統合制御装置4は、無人車
両の作業領域或いは進路に存在する物体が非障害物(例
えば草木等)である場合は、駆動機構(図示略)を制御
して無人車両を通常走行させる。
Thus, the integrated control device 4 can control the object detected by the three-dimensional object recognition device 2 and the obstacle detection device 3
And the object detected by the three-dimensional object recognition device 2 is excluded from the objects detected by the obstacle detection device 3 as non-obstacles (for example, plants and the like). That is, when the object existing in the work area or the course of the unmanned vehicle is a non-obstacle (for example, a plant or the like), the integrated control device 4 controls the driving mechanism (not shown) to cause the unmanned vehicle to travel normally.

【0031】この後、主制御部11は、画像処理部10
から信号線18を介して画像取込み終了応答が入力され
てくると(ステップS8)、送風部7へ信号線15を介
して送風停止指令を出力する(ステップS9)。これに
より、送風部7は、被検出物体への送風を停止する。
Thereafter, the main control unit 11 controls the image processing unit 10
When an image capture end response is input via the signal line 18 (step S8), a blow stop command is output to the blower unit 7 via the signal line 15 (step S9). Thus, the blower 7 stops blowing air to the detected object.

【0032】上述したように、本実施例によれば、無人
車両周囲に存在する物体の形状や位置ばかりでなく,無
人車両周囲に存在する物体へ送風して物体が揺らぐか否
かに基づき物体が無人車両の走行に障害となる障害物で
あるか走行に障害とならない非障害物であるかを検出す
るため、無人車両周囲の状況を的確に把握することが可
能となり、従って、物体が無人車両の走行に障害となら
ないもの(例えば草木等)である場合は無人車両を通常
走行させ,物体が無人車両の走行に障害となるもの(例
えば構造物や大木等)である場合は無人車両の走行を一
旦停止させる等,無人車両を周囲の状況に応じて円滑に
運用することが可能となる。
As described above, according to the present embodiment, not only the shape and position of the object existing around the unmanned vehicle but also whether the object swings by blowing air to the object existing around the unmanned vehicle is determined. Detects whether the vehicle is an obstacle that does not interfere with the traveling of the unmanned vehicle or is a non-obstruction that does not interfere with the traveling of the unmanned vehicle, so that the situation around the unmanned vehicle can be accurately grasped. If the vehicle does not hinder the running of the vehicle (for example, plants and trees), the unmanned vehicle is allowed to travel normally. The unmanned vehicle can be smoothly operated according to the surrounding situation, for example, by temporarily stopping running.

【0033】従って、従来の如く,無人車両の走行に支
障が無い程度の草木等も障害物として誤認識してしま
い,無人車両が立ち往生して運用が出来なくなるといっ
た不具合を解消することができるため、無人車両を例え
ば草原等においても支障なく運用することが可能とな
る。
Therefore, it is possible to solve the problem that plants and the like that do not hinder the operation of the unmanned vehicle are erroneously recognized as obstacles, and that the unmanned vehicle is stuck and cannot be operated as in the related art. In addition, the unmanned vehicle can be operated without trouble even in a grassland, for example.

【0034】また、上記により、無人車両を走行に障害
とならない物体(例えば草木等)が存在する進路を選ん
で走行させることも可能となるため、実質的に無人車両
の進路上における障害物の数を減らすことが可能とな
り、この結果、無人車両を目標地点へ従来よりも早く到
達させることが可能となる。
[0034] Further, according to the above description, it is possible to select and drive the unmanned vehicle on a path in which an object (for example, a plant or the like) that does not hinder the traveling is performed. Therefore, the number of obstacles on the path of the unmanned vehicle is substantially reduced. As a result, the unmanned vehicle can reach the target point earlier than before.

【0035】更に、上記により、無人車両の余分な走行
を回避することが可能となるため、無人車両を駆動する
ための電力や燃料等のエネルギー源の消費を節減するこ
とが可能となり、この結果、無人車両の運用効率を従来
よりも向上させることができる。
Further, the above makes it possible to avoid unnecessary travel of the unmanned vehicle, so that it is possible to reduce the consumption of energy sources such as electric power and fuel for driving the unmanned vehicle, and as a result, In addition, the operation efficiency of the unmanned vehicle can be improved as compared with the related art.

【0036】更にまた、無人車両の周囲に存在する物体
を非接触で検出するため、物体や無人車両に傷等を付け
ることが無いという効果もある。
Furthermore, since an object existing around the unmanned vehicle is detected in a non-contact manner, there is an effect that the object and the unmanned vehicle are not damaged.

【0037】[0037]

【発明の効果】以上説明したように、本発明の無人車両
用障害物検出装置によれば、無人車両外部に存在する物
体の位置ばかりでなく,無人車両外部に存在する物体へ
送風して物体が揺らぐか否かに基づき物体が無人車両の
走行に障害となる障害物であるか走行に障害とならない
非障害物であるかを検出するため、無人車両外部の状況
を的確に把握することが可能となり、従って、物体が無
人車両の走行に障害とならないもの(例えば草木等)で
ある場合は無人車両を通常走行させ,物体が無人車両の
走行に障害となるもの(例えば構造物や大木等)である
場合は無人車両の走行を一旦停止させる等,無人車両を
外部の状況に応じて円滑に運用することが可能となり、
この結果、従来の如く無人車両の走行に支障が無い程度
の草木等も障害物として誤認識して無人車両が立ち往生
するといった不具合を解消できるため、無人車両を例え
ば草原等においても支障なく運用することが可能とな
る、という効果を奏することができる。また、上記によ
り、無人車両を走行に障害とならない物体(例えば草木
等)が存在する進路を選んで走行させることも可能とな
るため、実質的に無人車両の進路上における障害物の数
を減らすことが可能となり、この結果、無人車両を目標
地点へ従来よりも早く到達させることが可能となる、と
いう効果がある。更に、上記により、無人車両の余分な
走行を回避することが可能となるため、無人車両のエネ
ルギー源の消費を節減することが可能となり、この結
果、無人車両の運用効率を従来よりも向上させることが
できる、という効果がある。
As described above, according to the obstacle detection device for an unmanned vehicle according to the present invention, not only the position of the object existing outside the unmanned vehicle but also the air flowing to the object existing outside the unmanned vehicle is blown. It is possible to accurately grasp the situation outside the unmanned vehicle in order to detect whether the object is an obstacle that does not interfere with the traveling of the unmanned vehicle or a non-obstruction that does not interfere with the traveling based on whether the vehicle fluctuates Therefore, if the object is an object that does not hinder unmanned vehicle traveling (for example, vegetation), the unmanned vehicle is allowed to travel normally, and the object is an obstacle to unmanned vehicle traveling (for example, a structure or a large tree, etc.). ), It is possible to operate the unmanned vehicle smoothly according to the external situation, such as temporarily stopping the running of the unmanned vehicle,
As a result, it is possible to eliminate such a problem that plants and the like that do not hinder the running of the unmanned vehicle as an obstacle are erroneously recognized as obstacles and the unmanned vehicle is stuck, so that the unmanned vehicle can be operated without trouble even in a grassland or the like. This makes it possible to achieve the effect of being able to do so. In addition, the above allows the unmanned vehicle to travel while selecting a path on which an object that does not hinder the traveling (for example, a plant or the like) exists. Therefore, it is possible to substantially reduce the number of obstacles on the path of the unmanned vehicle. As a result, the unmanned vehicle can reach the target point earlier than before. Further, the above makes it possible to avoid unnecessary travel of the unmanned vehicle, so that it is possible to reduce the consumption of the energy source of the unmanned vehicle, and as a result, the operation efficiency of the unmanned vehicle is improved as compared with the conventional case. There is an effect that can be.

【0038】また、制御手段が,更に,物体検出手段に
よる物体検出に伴い送風手段を断続的に作動して検出物
体へ向けて断続的な送風を開始させる第2の送風開始タ
イミング制御機能を備えた場合には、例えば草木等の柔
らかい検出物体の揺らぎの有無を確認し易くなるため、
検出物体が非障害物であるか障害物であるかの判定をよ
り確実に行うことが可能となる、という効果がある。
Further, the control means further comprises a second air blowing start timing control function for intermittently operating the air blowing means in response to the detection of the object by the object detecting means to start the intermittent air blowing toward the detected object. In the case of, for example, it is easy to confirm the presence or absence of fluctuation of a soft detection object such as a plant,
There is an effect that it is possible to more reliably determine whether the detected object is a non-obstacle or an obstacle.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した本実施例における障害物検出
装置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an obstacle detection device according to an embodiment of the present invention.

【図2】本実施例における無人車両の構成を示す概略図
である。
FIG. 2 is a schematic diagram illustrating a configuration of an unmanned vehicle according to the present embodiment.

【図3】本実施例における画像処理部の構成を示すブロ
ック図である。
FIG. 3 is a block diagram illustrating a configuration of an image processing unit according to the embodiment.

【図4】本実施例における主制御部の制御順序を示す流
れ図である。
FIG. 4 is a flowchart showing a control sequence of a main control unit in the embodiment.

【図5】本実施例における画像処理部の画像処理を示す
説明図である。
FIG. 5 is an explanatory diagram illustrating image processing of an image processing unit according to the present embodiment.

【符号の説明】[Explanation of symbols]

1 無人車両 2 物体検出手段としての三次元物体認識装置 3 障害物検出装置 4 統合制御装置 7 送風手段としての送風部 8 撮影手段としてのビデオカメラ部 9 姿勢制御部 10 画像処理部 11 制御手段としての主制御部 DESCRIPTION OF SYMBOLS 1 Unmanned vehicle 2 Three-dimensional object recognition device as an object detection means 3 Obstacle detection device 4 Integrated control device 7 Blower unit as a blower unit 8 Video camera unit as a photographing unit 9 Attitude control unit 10 Image processing unit 11 As a control unit Main control section

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01S 7/52 - 7/64 G01S 15/00 - 15/96 G05D 1/02 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) G01S 7 /52-7/64 G01S 15/00-15/96 G05D 1/02

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 無人車両の外部における物体の有無及び
位置を超音波センサ等により検出する物体検出手段と、
前記無人車両外部の状況を撮影する撮影手段と、前記無
人車両外部へ向けて風を送り出す送風手段と、前記各手
段を制御する制御手段とを備え、 該制御手段が、前記物体検出手段による物体検出に伴い
前記送風手段を作動して検出物体へ向けて送風を開始さ
せる送風開始タイミング制御機能と,検出物体の送風開
始前の撮影画像と送風開始後の撮影画像とを比較して検
出物体が揺らいだか否かを判定する揺らぎ判定機能と,
検出物体が揺らいだ場合は検出物体を非障害物と判定し
検出物体が揺らがない場合は検出物体を障害物と判定す
る障害物判定機能とを具備したことを特徴とする無人車
両用障害物検出装置。
An object detecting means for detecting the presence or absence and position of an object outside an unmanned vehicle by an ultrasonic sensor or the like,
A photographing means for photographing a situation outside the unmanned vehicle; a blowing means for blowing wind toward the outside of the unmanned vehicle; and a control means for controlling each of the means. The air blowing start timing control function for starting the air blowing toward the detection object by operating the air blowing means in accordance with the detection, and comparing the captured image of the detection object before the air blowing is started with the captured image after the air blowing is started, to detect the detected object. A fluctuation judgment function for judging whether or not the vibration has occurred;
An obstacle detection function for an unmanned vehicle, comprising: an obstacle determination function that determines the detection object as a non-obstacle when the detection object swings and determines the detection object as an obstacle when the detection object does not swing. apparatus.
【請求項2】 前記制御手段が、更に、前記物体検出手
段による物体検出に伴い前記送風手段を断続的に作動し
て検出物体へ向けて断続的な送風を開始させる第2の送
風開始タイミング制御機能を備えていることを特徴とす
る請求項1記載の無人車両用障害物検出装置。
2. The second blowing start timing control, wherein the control means further intermittently operates the blowing means in accordance with the detection of an object by the object detecting means to start the intermittent blowing toward the detected object. The obstacle detection device for an unmanned vehicle according to claim 1, further comprising a function.
JP5167543A 1993-06-14 1993-06-14 Obstacle detection device for unmanned vehicles Expired - Lifetime JP3036301B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5167543A JP3036301B2 (en) 1993-06-14 1993-06-14 Obstacle detection device for unmanned vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5167543A JP3036301B2 (en) 1993-06-14 1993-06-14 Obstacle detection device for unmanned vehicles

Publications (2)

Publication Number Publication Date
JPH0772248A JPH0772248A (en) 1995-03-17
JP3036301B2 true JP3036301B2 (en) 2000-04-24

Family

ID=15851663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5167543A Expired - Lifetime JP3036301B2 (en) 1993-06-14 1993-06-14 Obstacle detection device for unmanned vehicles

Country Status (1)

Country Link
JP (1) JP3036301B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097360A (en) * 2008-10-15 2010-04-30 Ihi Corp Autonomous mobile robot device, operation auxiliary device for moving object, method of controlling the autonomous mobile robot device and operation auxiliary method for the moving object
JP2011013803A (en) * 2009-06-30 2011-01-20 Ihi Corp Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body
DE102021126514A1 (en) 2021-10-13 2023-04-13 Bayerische Motoren Werke Aktiengesellschaft Method and device for automatically classifying or validating an object

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2315048A1 (en) 2009-10-22 2011-04-27 Toyota Motor Europe NV/SA Submillimeter radar using signals reflected from multiple angles
EP2315051A1 (en) 2009-10-22 2011-04-27 Toyota Motor Europe NV Submillimeter radar using phase information
KR102069505B1 (en) * 2014-04-24 2020-01-23 한화디펜스 주식회사 Apparatus for improvement driving performance of the drive unit and systerm for surveillance and reconnaissance
JP6330552B2 (en) * 2014-07-30 2018-05-30 カシオ計算機株式会社 Plant growth state determination apparatus, plant growth state determination method, and program
JP6868996B2 (en) * 2016-10-13 2021-05-12 日立建機株式会社 Obstacle detection system and construction machinery
JP7207645B2 (en) * 2018-05-24 2023-01-18 シンフォニアテクノロジー株式会社 moving device
JP2022174551A (en) * 2021-05-11 2022-11-24 トヨタ自動車株式会社 Autonomous robot controller
JP7641889B2 (en) * 2021-12-28 2025-03-07 株式会社クボタ system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097360A (en) * 2008-10-15 2010-04-30 Ihi Corp Autonomous mobile robot device, operation auxiliary device for moving object, method of controlling the autonomous mobile robot device and operation auxiliary method for the moving object
JP2011013803A (en) * 2009-06-30 2011-01-20 Ihi Corp Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body
DE102021126514A1 (en) 2021-10-13 2023-04-13 Bayerische Motoren Werke Aktiengesellschaft Method and device for automatically classifying or validating an object

Also Published As

Publication number Publication date
JPH0772248A (en) 1995-03-17

Similar Documents

Publication Publication Date Title
CN1098750C (en) Movable robot system using RF module
JP3036301B2 (en) Obstacle detection device for unmanned vehicles
JP3992026B2 (en) Self-propelled robot
CN108928343A (en) A kind of panorama fusion automated parking system and method
JP2002182742A (en) Mobile robot and path correction method thereof
US10068141B2 (en) Automatic operation vehicle
US10067511B2 (en) Automatic operation vehicle
SE525497C2 (en) Method for detecting position marking for cleaning robot and cleaning robot using the method
JP2003200372A (en) Remote control type cutting robot
US11800831B1 (en) Vision system integration
US12103519B2 (en) Driving assistance apparatus, vehicle, and driving assistance method
US10054952B2 (en) Automatic operation vehicle
CN118276585A (en) Automatic obstacle avoidance target recognition method for robots
US11921205B2 (en) Method for eliminating misjudgment of reflective lights and optical sensing system
KR100500831B1 (en) Method calculating rotated angles of robot cleaner
US12036668B2 (en) Method for eliminating misjudgment of reflective light and optical sensing system
KR100632242B1 (en) Path correction method of mobile robot
US11491973B2 (en) Parking assist apparatus and a method of controlling the parking assist apparatus
CN110825094A (en) A robot line patrol navigation system based on machine vision
KR100662628B1 (en) Robot cleaner that recognizes sound signal and its system
US20240375652A1 (en) Travel controller and method for controlling travel
JP3099308B2 (en) Anomaly detection device
TWI874022B (en) Line laser module and autonomous mobile device
KR0137952Y1 (en) 3D visual device
CN116087686A (en) An artificial intelligence-based power grid fault identification system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000125