JP5947938B1 - Obstacle detection device and moving body equipped with the same - Google Patents

Obstacle detection device and moving body equipped with the same Download PDF

Info

Publication number
JP5947938B1
JP5947938B1 JP2015044865A JP2015044865A JP5947938B1 JP 5947938 B1 JP5947938 B1 JP 5947938B1 JP 2015044865 A JP2015044865 A JP 2015044865A JP 2015044865 A JP2015044865 A JP 2015044865A JP 5947938 B1 JP5947938 B1 JP 5947938B1
Authority
JP
Japan
Prior art keywords
obstacle
information
road
runway
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015044865A
Other languages
Japanese (ja)
Other versions
JP2016164735A (en
Inventor
山崎 章弘
章弘 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2015044865A priority Critical patent/JP5947938B1/en
Priority to TW105103848A priority patent/TWI598854B/en
Priority to KR1020160022324A priority patent/KR101747761B1/en
Application granted granted Critical
Publication of JP5947938B1 publication Critical patent/JP5947938B1/en
Publication of JP2016164735A publication Critical patent/JP2016164735A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】走路上の障害物を演算量を低減して検出する障害物検出装置およびそれを備えた移動体を提供する。【解決手段】車両1の前方の物体までの距離情報を検出する距離情報検出部21と、車両1の前方の視差画像を作成する視差画像生成部23と、スタート位置Soからの車両1の位置に応じて視差画像上の走路Trを特定する走路位置情報が記憶された走路位置情報記憶部25と、走路Tr上における車両1の位置を推定する位置推定部27と、推定された位置と走路位置情報により走路Tr上の視差画像を抽出する走路上視差画像抽出部66と、走路上の視差画像を基に障害物を検出する障害物検出部31’とを備え、走路位置情報は距離情報と車両1の水平方向の座標情報により特定される障害物検出装置56である。【選択図】図12An obstacle detection device that detects an obstacle on a running road with a reduced amount of calculation and a moving body including the obstacle detection device. A distance information detection unit that detects distance information to an object ahead of a vehicle, a parallax image generation unit that creates a parallax image in front of the vehicle, and a position of the vehicle from a start position So. The track position information storage unit 25 that stores track position information that identifies the track Tr on the parallax image, the position estimation unit 27 that estimates the position of the vehicle 1 on the track Tr, the estimated position and the track A parallax image extraction unit 66 for extracting a parallax image on the road Tr based on position information and an obstacle detection unit 31 ′ for detecting an obstacle based on the parallax image on the road are provided, and the road position information is distance information. And the obstacle detection device 56 specified by the coordinate information of the vehicle 1 in the horizontal direction. [Selection] Figure 12

Description

本発明は、障害物検出装置およびそれを備えた移動体に関する。   The present invention relates to an obstacle detection device and a moving body including the same.

ゴルフ場内の予め定められた走路を走行するゴルフカートには自律走行機能を有しているものがある。自律走行は電磁誘導線から発生する磁界を検出することで行われる。また、ゴルフ場の走路には、作業車や走路を横切る人がゴルフカートの障害物として存在する。運転者無しで自律走行する場合、これらの障害物を検出する必要がある。そこで、ゴルフカートの前面に、超音波などを利用した障害物センサを設けて、ゴルフカート前方の障害物を検出する障害物検出装置を備えるものもある。   Some golf carts that run on a predetermined course in a golf course have an autonomous running function. Autonomous traveling is performed by detecting a magnetic field generated from an electromagnetic induction wire. On the course of a golf course, there are work vehicles and people crossing the course as obstacles to the golf cart. When traveling autonomously without a driver, it is necessary to detect these obstacles. In view of this, some obstacle sensors using ultrasonic waves or the like are provided on the front surface of the golf cart, and an obstacle detection device that detects an obstacle in front of the golf cart is provided.

従来の障害物検出装置は走路上にない物体を障害物として検出し、その結果、ゴルフカートを減速制御することがある。そこで、特許文献1の技術では障害物が走路上に存在するか否かを判定している。これにより、走路上にはない障害物により停止制御するのを抑制している。   Conventional obstacle detection devices detect an object that is not on the road as an obstacle, and as a result, the golf cart may be subjected to deceleration control. Therefore, in the technique of Patent Document 1, it is determined whether an obstacle exists on the road. As a result, stop control by an obstacle not on the runway is suppressed.

特許文献1の技術
特許文献1には、全体座標系として得られた移動体の座標位置と、全体座標系として得られた走行路沿いの各点の座標位置データとから移動体座標系における走行路の座標位置データを取得し、移動体座標系における3次元画像内の走行路面を特定し、検出した障害物が走行路面上に有るか否かを判定することが記載されている。
The technique of patent document 1 In patent document 1, the driving | running | working in a mobile body coordinate system is described from the coordinate position of the moving body obtained as a whole coordinate system, and the coordinate position data of each point along a running path obtained as a whole coordinate system. It describes that the coordinate position data of the road is acquired, the traveling road surface in the three-dimensional image in the moving body coordinate system is specified, and it is determined whether or not the detected obstacle is on the traveling road surface.

特開平10−141954号公報Japanese Patent Laid-Open No. 10-141954

しかしながら、3次元画像内の走行路面を3次元データを用いて特定するので、障害物検出装置のCPUに演算負荷がかかり、また、演算時間を要する。演算時間が多くなれば、移動体は走行しているので、障害物との距離が近くなり接触する可能性が高くなる。また、ゴルフ場の走路のように、木々の間の間際を通り抜ける車両向けの装置としては、推定した現在位置の誤差が大きければ、走路周辺の木々を走路内の障害物として判定し停止してしまうケースが発生する。したがって、現在位置を高精度に推定できなければならない。特許文献1では移動体の現在位置に3次元位置座標を使用しているが、3次元で高精度に現在位置を推定しようとすると、高価なGPS、センサなどが必要となる上、それらが車両台数分必要となる。   However, since the traveling road surface in the three-dimensional image is specified using the three-dimensional data, a calculation load is applied to the CPU of the obstacle detection device, and calculation time is required. If the calculation time increases, the moving body is traveling, so the distance from the obstacle becomes closer and the possibility of contact increases. Also, as a device for vehicles that pass just between trees like a golf course, if the estimated current position error is large, the trees around the runway are judged as obstacles in the runway and stopped. Will occur. Therefore, the current position must be able to be estimated with high accuracy. In Patent Document 1, three-dimensional position coordinates are used for the current position of the moving body. However, if the current position is to be estimated with high accuracy in three dimensions, expensive GPS, sensors, and the like are required. Required for the number of units.

本発明は、このような事情に鑑みてなされたものであって、走路上の障害物を演算量を低減して検出する障害物検出装置およびそれを備えた移動体を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an obstacle detection device that detects an obstacle on a runway with a reduced amount of computation, and a moving body including the obstacle detection device. To do.

上記目的を達成するために、本発明は次のような構成をとる。
すなわち、本発明の第1の発明は、予め定められた走路を走行する移動体に搭載される障害物検出装置において、前記障害物検出装置から前記移動体の前方の物体までの距離情報を検出する距離情報検出部と、前記距離情報を基に前記移動体の前方の3次元情報を生成する3次元情報生成部と、予め定められた位置からの前記移動体の位置に応じた走路位置情報が記憶された記憶部と、前記走路上における前記移動体の位置を推定する位置推定部と、前記走路位置情報を基に、前記3次元情報内における走路上の3次元情報を抽出する走路上3次元情報抽出部と、抽出された、走路上の前記3次元情報を基に障害物を検出する障害物検出部とを備え、前記走路位置情報は前記距離情報と前記移動体の水平方向の座標情報により特定される。
In order to achieve the above object, the present invention has the following configuration.
That is, according to a first aspect of the present invention, in an obstacle detection device mounted on a moving body traveling on a predetermined road, distance information from the obstacle detection device to an object ahead of the moving body is detected. A distance information detection unit that performs, a three-dimensional information generation unit that generates three-dimensional information in front of the mobile body based on the distance information, and track position information corresponding to the position of the mobile body from a predetermined position On the road that extracts 3D information on the road in the three-dimensional information based on the road position information, based on the road position information, the storage unit that stores the position, the position estimation unit that estimates the position of the moving body on the road and the three-dimensional information extracting unit, which is extracted, based on the three-dimensional information on the track and a obstacle detection unit for detecting an obstacle, the track position information in the horizontal direction of the moving body and the distance information Identified by coordinate information.

この発明によれば、距離情報検出部が、障害物検出装置から移動体の前方の物体までの距離情報を検出する。3次元情報生成部は、検出された距離情報を基に移動体の前方の3次元情報を生成する。記憶部には、予め定められた位置からの移動体の位置に応じて3次元情報上の走路を特定する走路位置情報が記憶されている。位置推定部は、走路上における移動体の位置を推定する。走路上3次元情報抽出部は、推定された位置と走路位置情報により3次元情報における走路上の3次元情報を抽出する。障害物検出部は、走路上の3次元情報を基に障害物を検出する。   According to this invention, the distance information detection unit detects distance information from the obstacle detection device to the object ahead of the moving body. The three-dimensional information generation unit generates three-dimensional information ahead of the moving object based on the detected distance information. The storage unit stores road position information that specifies a road on the three-dimensional information according to the position of the moving body from a predetermined position. The position estimation unit estimates the position of the moving body on the runway. The three-dimensional information extraction unit on the road extracts three-dimensional information on the road in the three-dimensional information based on the estimated position and the road position information. The obstacle detection unit detects the obstacle based on the three-dimensional information on the road.

走路上の3次元情報の抽出に用いられる走路位置情報は、距離情報と移動体の水平方向の座標情報との2次元の情報であるので、3次元の情報量を用いて特定していた従来よりも扱う情報量を少なくすることができ、演算負荷を軽減することができる。これにより、演算時間を短くすることができ、障害物から距離が確保された時点で障害物が走路上にあるか否かを判定することができ、障害物との接触回避を向上させることができる。   The track position information used to extract the three-dimensional information on the track is two-dimensional information of distance information and horizontal coordinate information of the moving body, and thus has been specified using a three-dimensional information amount. The amount of information handled can be reduced, and the calculation load can be reduced. Thereby, the calculation time can be shortened, it can be determined whether or not the obstacle is on the runway when the distance from the obstacle is secured, and the avoidance of contact with the obstacle can be improved. it can.

また、走路上の前記障害物が人であるか否かを判定する人判定部を備えることが好ましい。または、走路上にあると判定された前記障害物が人であるか否かを判定する人判定部を備えることが好ましい。人検出を走路上の障害物に絞ることで、人検出の処理時間を短縮することができる。また、移動体から遠方にいるような接触の可能性の無い人を検出しないので、移動体はスムーズな走行をすることができる。   Moreover, it is preferable to provide the person determination part which determines whether the said obstruction on a runway is a person. Or it is preferable to provide the person determination part which determines whether the said obstacle determined to be on a runway is a person. By narrowing down human detection to obstacles on the runway, processing time for human detection can be shortened. Moreover, since the person who does not have the possibility of contact such as being far away from the moving body is not detected, the moving body can travel smoothly.

また、前記走路位置情報を基に、走路に隣接する予め定められた領域である拡張走路領域における3次元情報を抽出する拡張領域3次元情報抽出部を備え、前記障害物検出部は、前記走路拡張領域上においても障害物を検出し、前記人判定部は、前記走路拡張領域内で検出された前記障害物が人であるか否かを判定することが好ましい。これにより、走路周辺の木々と混同しやすい走路の幅方向両端付近の領域にいる人に対して検出率を向上することができる。   In addition, an extended region 3D information extraction unit that extracts three-dimensional information in an extended track region that is a predetermined region adjacent to the track based on the track position information is provided, and the obstacle detection unit includes the track It is preferable that an obstacle is also detected on the extension area, and the person determination unit determines whether or not the obstacle detected in the runway extension area is a person. Thereby, a detection rate can be improved with respect to the person who exists in the area | region of the width direction both ends of a runway which is easy to be confused with trees around a runway.

また、前記走路位置情報を基に、走路に隣接する予め定められた領域である拡張走路領域における3次元情報を抽出する拡張領域3次元情報抽出部と、前記走路拡張領域内において前記3次元情報を基に人を検出する人検出部を備えてもよい。特定された走路に予め定められた領域だけ広い範囲内で人検出をすることで、人検出の処理時間を短縮することができる。さらには、走路付近にいる人を検出することができるので、走路内に入ろうとする人も検出することができる。これにより、人との接触回避を向上させることができる。また、障害物検出部と人検出部とをそれぞれ別体として備えるので、接触可能性の高い走路上の障害物に対してと、接触可能性の判断が難しく、かつ走路周辺の木々と混同しやすい走路の幅方向両端付近の領域にいる人に対して異なる処理をすることができる。   Further, based on the runway position information, an extended area 3D information extraction unit that extracts 3D information in an extended runway area that is a predetermined area adjacent to the runway, and the 3D information in the runway extension area A person detection unit for detecting a person based on the above may be provided. The human detection processing time can be shortened by performing human detection within a wide range of a predetermined area on the specified road. Furthermore, since a person near the runway can be detected, a person trying to enter the runway can also be detected. Thereby, contact avoidance with a person can be improved. In addition, since the obstacle detection unit and the human detection unit are provided as separate bodies, it is difficult to judge the possibility of contact with obstacles on the road with high possibility of contact, and it is confused with trees around the road. It is possible to perform different processing on people who are in areas near both ends in the width direction of the easy track.

また、本発明の第2の発明は、予め定められた走路を走行する移動体に搭載される障害物検出装置において、前記障害物検出装置から前記移動体の前方の物体までの距離情報を検出する距離情報検出部と、前記距離情報を基に前記移動体の前方の3次元情報を生成する3次元情報生成部と、予め定められた位置からの前記移動体の位置に応じて前記3次元情報上の走路を特定する走路位置情報が記憶された記憶部と、前記走路上における前記移動体の位置を推定する位置推定部と、推定された前記位置と前記走路位置情報により前記3次元情報における走路を特定する走路特定部と、前記3次元情報を基に障害物を検出する障害物検出部と、検出された前記障害物が、特定された前記走路上にあるか否かを判定する判定部とを備え、前記走路位置情報は前記距離情報と前記移動体の水平方向の座標情報により特定される。   According to a second aspect of the present invention, in an obstacle detection device mounted on a moving body traveling on a predetermined road, distance information from the obstacle detection device to an object ahead of the moving body is detected. A distance information detection unit that performs the three-dimensional information generation unit that generates three-dimensional information ahead of the moving body based on the distance information, and the three-dimensional information according to the position of the moving body from a predetermined position. A three-dimensional information according to the storage unit storing the road position information for specifying the road on the information, the position estimation unit for estimating the position of the moving body on the road, and the estimated position and the road position information. A road identification unit that identifies a road in the vehicle, an obstacle detection unit that detects an obstacle based on the three-dimensional information, and determines whether the detected obstacle is on the identified road A determination unit, and the runway Location information is identified by the horizontal coordinate information of the movable body and the distance information.

本発明によれば、距離情報検出部が、障害物検出装置から移動体の前方の物体までの距離情報を検出する。3次元情報生成部は、検出された距離情報を基に移動体の前方の3次元情報を生成する。記憶部には、予め定められた位置からの移動体の位置に応じて3次元情報上の走路を特定する走路位置情報が記憶されている。位置推定部は、走路上における移動体の位置を推定する。走路特定部は、推定された位置と走路位置情報により3次元情報における走路を特定する。障害物検出部は、3次元情報を基に障害物を検出する。判定部は、検出された障害物が、特定された走路上にあるか否かを判定する。   According to the present invention, the distance information detection unit detects distance information from the obstacle detection device to an object ahead of the moving body. The three-dimensional information generation unit generates three-dimensional information ahead of the moving object based on the detected distance information. The storage unit stores road position information that specifies a road on the three-dimensional information according to the position of the moving body from a predetermined position. The position estimation unit estimates the position of the moving body on the runway. The runway specifying unit specifies the runway in the three-dimensional information based on the estimated position and the runway position information. The obstacle detection unit detects an obstacle based on the three-dimensional information. The determination unit determines whether or not the detected obstacle is on the identified road.

3次元情報上の走路を特定する走路位置情報は、距離情報と移動体の水平方向の座標情報との2次元の情報であるので、3次元の情報量を用いて特定していた従来よりも扱う情報量を少なくすることができ、演算負荷を軽減することができる。これにより、演算時間を短くすることができ、障害物から距離が確保された時点で障害物が走路上にあるか否かを判定することができ、障害物との接触回避を向上させることができる。   The track position information for specifying the track on the three-dimensional information is two-dimensional information of the distance information and the horizontal coordinate information of the moving body. The amount of information handled can be reduced, and the calculation load can be reduced. Thereby, the calculation time can be shortened, it can be determined whether or not the obstacle is on the runway when the distance from the obstacle is secured, and the avoidance of contact with the obstacle can be improved. it can.

また、前記特定された走路に対して隣接する予め定められた領域である拡張走路領域を特定する領域特定部を備え、前記判定部は、検出された前記障害物が、特定された前記拡張走路領域上にあるか否かを判定し、前記人判定部は、拡張走路領域上にあると判定された前記障害物が人であるか否かを判定することが好ましい。これにより、走路周辺の木々と混同しやすい走路の幅方向両端付近の領域にいる人に対して検出率を向上することができる。   In addition, an area specifying unit that specifies an extended runway area that is a predetermined area adjacent to the specified runway is provided, and the determination unit includes the extended runway in which the detected obstacle is specified. It is preferable to determine whether or not the obstacle is on the area, and the person determination unit determines whether or not the obstacle determined to be on the extended track area is a person. Thereby, a detection rate can be improved with respect to the person who exists in the area | region of the width direction both ends of a runway which is easy to be confused with trees around a runway.

また、前記特定された走路に対して隣接する予め定められた領域である拡張走路領域を特定する領域特定部と、特定された前記拡張走路領域内において人を検出する人検出部を備えてもよい。特定された走路に予め定められた領域だけ広い範囲内で人検出をすることで、人検出の処理時間を短縮することができる。さらには、走路付近にいる人を検出することができるので、走路内に入ろうとする人も検出することができる。これにより、人との接触回避を向上させることができる。また、前記障害物検出部と前記人検出部とをそれぞれ別体として備えるので、接触可能性の高い走路上の障害物に対してと、接触可能性の判断が難しく、かつ走路周辺の木々と混同しやすい走路の幅方向両端付近の領域にいる人に対して異なる処理をすることができる。   In addition, an area specifying unit that specifies an extended runway area that is a predetermined area adjacent to the specified runway, and a person detection unit that detects a person in the specified extended runway area are provided. Good. The human detection processing time can be shortened by performing human detection within a wide range of a predetermined area on the specified road. Furthermore, since a person near the runway can be detected, a person trying to enter the runway can also be detected. Thereby, contact avoidance with a person can be improved. In addition, since the obstacle detection unit and the human detection unit are provided as separate bodies, it is difficult to determine the possibility of contact with obstacles on the road with high possibility of contact, and the trees around the road Different processing can be performed on people who are in the vicinity of both ends in the width direction of the runway that are easily confused.

また、前記位置推定部は前記走路上における前記移動体の位置を予め定められた位置からの移動距離により推定することが好ましい。移動体は予め定められた走路を走行するので、予め定められた位置からの移動距離で走路上の移動体の位置を特定することができる。位置推定部が走路上における移動体の位置を予め定められた位置からの移動距離により推定するので、全体座標系を用いなくても車両座標系だけで移動体の位置を推定することができる。さらに、移動距離は1次元のデータ量であるので扱うデータ量を格段に低減することができる。   Moreover, it is preferable that the said position estimation part estimates the position of the said mobile body on the said runway from the movement distance from a predetermined position. Since the moving body travels on a predetermined traveling path, the position of the moving body on the traveling path can be specified by the moving distance from the predetermined position. Since the position estimation unit estimates the position of the moving body on the runway based on the moving distance from a predetermined position, the position of the moving body can be estimated using only the vehicle coordinate system without using the overall coordinate system. Furthermore, since the movement distance is a one-dimensional data amount, the amount of data handled can be significantly reduced.

また、前記距離情報検出部はステレオカメラを有し、前記3次元情報は視差画像でもよい。距離情報検出部としてステレオカメラを用いることで、視差画像を3次元情報として用いることができる。これにより、視差画像中の走路の判定および障害物の検出を適切に実施することができる。また、1次元スキャンのレーザーレーダでは、路面のアップダウンにより、路面を障害物として検出しやすいが、ステレオカメラを用いることで、より路面のうねりの影響を受けにくく障害物を検出することができる。   The distance information detection unit may include a stereo camera, and the three-dimensional information may be a parallax image. By using a stereo camera as the distance information detection unit, a parallax image can be used as three-dimensional information. Thereby, determination of the runway and detection of an obstacle in a parallax image can be implemented appropriately. In addition, in a one-dimensional scanning laser radar, it is easy to detect the road surface as an obstacle due to the up and down of the road surface, but by using a stereo camera, it is possible to detect the obstacle more unlikely to be affected by road surface undulations. .

また、前記距離情報検出部はレーダーを有してもよい。距離情報検出部としてレーダーを用いることで、3次元情報を適切に取得することができる。ステレオカメラを用いるよりも、特に遠方で精度良く距離計測をすることができ、3次元情報中の走路の判定および障害物の検出を適切に実施することができる。   The distance information detection unit may have a radar. By using a radar as the distance information detection unit, three-dimensional information can be acquired appropriately. Rather than using a stereo camera, distance measurement can be performed with high accuracy, particularly at a distance, and it is possible to appropriately perform determination of a runway and detection of an obstacle in three-dimensional information.

また、本発明に係る移動体は、上記障害物検出装置を備える移動体である。上記障害物検出装置を備えるので、走路上に障害物が存在するか否かを演算量を低減して判定することができる。   Moreover, the mobile body which concerns on this invention is a mobile body provided with the said obstacle detection apparatus. Since the obstacle detection device is provided, it can be determined whether or not there is an obstacle on the running road with a reduced amount of calculation.

また、移動体は、前記走路上に前記障害物が検出されると警告を発する警報器を備えることが好ましい。走路上に存在する歩行者、動物、他の移動体の運転者等に警告を発することで、これらの障害物との接触回避を向上させることができる。また、警告が発せられることで自己の移動体の運転者にも注意喚起を図ることができる。   Moreover, it is preferable that a mobile body is provided with the alarm device which issues a warning, when the said obstruction is detected on the said runway. By issuing a warning to pedestrians, animals, drivers of other moving objects, etc. existing on the runway, contact avoidance with these obstacles can be improved. In addition, a warning can be issued to alert the driver of his / her moving body.

また、移動体は、前記走路上に前記障害物が検出されると前記移動体を減速または停止させる速度制御部を備えることが好ましい。走路上に存在する障害物が人や動物でない場合や、移動体の運転者がいない自律走行の場合でも、障害物との接触回避を向上させることができる。   Moreover, it is preferable that a mobile body is provided with the speed control part which decelerates or stops the said mobile body when the said obstruction is detected on the said runway. Even when the obstacle present on the runway is not a person or an animal, or when the vehicle is traveling autonomously without a driver of a moving body, contact avoidance with the obstacle can be improved.

また、移動体は、前記走路上の検出された障害物に対して前記移動体の減速または停止させる速度制御部と、前記拡張走路領域上の検出された人に対して警告を発する警報器とを備えることが好ましい。これにより、人を含め障害物が走路上にある場合、これを検出することにより移動体の減速または停止が実施される。また、拡張走路領域に人がいる場合、これを検出することにより、警報器より警告が発される。この警告により、拡張走路領域にいる人が走路内へ進入するのを防止することができ、この結果、移動体の不要な減速または停止を抑制することができる。   In addition, the moving body is a speed control unit that decelerates or stops the moving body with respect to the detected obstacle on the running road, and an alarm device that issues a warning to the detected person on the extended running road area. It is preferable to provide. Thereby, when an obstacle including a person is on the runway, the moving body is decelerated or stopped by detecting this. Further, when there is a person in the extended runway area, a warning is issued from the alarm device by detecting this. By this warning, it is possible to prevent a person in the extended runway area from entering the runway, and as a result, unnecessary deceleration or stop of the moving body can be suppressed.

本発明によれば、走路上の障害物を演算量を低減して検出する障害物検出装置およびそれを備えた移動体を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the obstruction detection apparatus which reduces the amount of calculations and detects the obstruction on a runway, and a mobile body provided with the same can be provided.

実施例に係る車両の前面図である。1 is a front view of a vehicle according to an embodiment. 実施例1に係る車両の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a vehicle according to a first embodiment. 実施例1に係る障害物検出装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an obstacle detection device according to Embodiment 1. FIG. 実施例1に係るステレオカメラと距離情報の向きとの関係を示す説明図である。It is explanatory drawing which shows the relationship between the stereo camera which concerns on Example 1, and the direction of distance information. 実施例に係る車両が走行する走路の一例を示す説明図である。It is explanatory drawing which shows an example of the runway where the vehicle which concerns on an Example drive | works. 実施例1に係る視差画像において走路の特定を説明する説明図である。It is explanatory drawing explaining specification of a runway in the parallax image which concerns on Example 1. FIG. 実施例1に係る視差画像において走路上の障害物を示す説明図である。It is explanatory drawing which shows the obstruction on a runway in the parallax image which concerns on Example 1. FIG. 実施例1に係る障害物検出の流れを示すフローチャートである。6 is a flowchart illustrating a flow of obstacle detection according to the first embodiment. 実施例2に係る車両の構成を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration of a vehicle according to a second embodiment. 実施例3に係る車両の構成を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration of a vehicle according to a third embodiment. 実施例3に係る視差画像において拡張走路領域を示す説明図である。It is explanatory drawing which shows an extended runway area | region in the parallax image which concerns on Example 3. FIG. 実施例4に係る車両の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a vehicle according to a fourth embodiment. 実施例4に係る視差画像において走路上の障害物を示す説明図である。It is explanatory drawing which shows the obstruction on a runway in the parallax image which concerns on Example 4. FIG. 実施例4に係る視差画像において拡張走路領域を示す説明図である。It is explanatory drawing which shows an extended runway area | region in the parallax image which concerns on Example 4. FIG. 実施例4に係る障害物検出の流れを示すフローチャートである。10 is a flowchart illustrating a flow of obstacle detection according to a fourth embodiment.

以下、図面を参照して本発明の実施例1を説明する。本発明における移動体の実施形態として、自律走行するゴルフカートを挙げる。本発明における移動体はゴルフカートに限られず、工場や果樹園で走行する無人搬送車も含まれる。また、本発明における移動体は4輪車に限られず、3輪車でもよいし、モノレール型でもよい。なお、以下の説明で、前後および左右とは移動体の前進する方向を基準としている。   Embodiment 1 of the present invention will be described below with reference to the drawings. As an embodiment of the moving body in the present invention, a golf cart that runs autonomously is given. The moving body in the present invention is not limited to a golf cart, and includes an automatic guided vehicle that runs in a factory or an orchard. Further, the moving body in the present invention is not limited to a four-wheeled vehicle, and may be a three-wheeled vehicle or a monorail type. In the following description, front and rear and left and right are based on the advancing direction of the moving body.

1.車両の概略構成
図1を参照する。図1は、実施例に係る車両1の前面図である。車両1はゴルフ場内を自律走行するゴルフカートである。車両1は、走路に埋め込まれた誘導線から発せられる電磁波に誘導されて自律走行することができる。車両1の前面中央部にステレオカメラ3が設けられている。
1. Schematic configuration of vehicle Referring to FIG. FIG. 1 is a front view of the vehicle 1 according to the embodiment. The vehicle 1 is a golf cart that autonomously travels within a golf course. The vehicle 1 can travel autonomously by being guided by an electromagnetic wave emitted from a guide wire embedded in the runway. A stereo camera 3 is provided in the center of the front surface of the vehicle 1.

また、車両1は、ハンドル4の回転により操舵される右前輪5および左前輪6を備える。車両1の下部には、走路Tr上に予め埋設された定点Fp(図5)を読み取る読み取り部7が設けられている。定点Fpはスタート位置So以外にも走路Tr上に複数個埋設されている。定点Fpは複数の磁石の磁極の組み合わせで構成されている。読み取り部7は、このような磁場情報を定点Fpから読み取る磁力センサである。磁場情報には、スタート位置So、または、ある特定位置を示す位置情報と、一旦停止や車速の増減速等の速度制御情報とが含まれる。なお、定点Fpは磁石だけでなく、RFID(radio frequency identifier)で用いられるRFタグでもよい。   The vehicle 1 also includes a right front wheel 5 and a left front wheel 6 that are steered by the rotation of the handle 4. A reading unit 7 that reads a fixed point Fp (FIG. 5) embedded in advance on the runway Tr is provided in the lower portion of the vehicle 1. In addition to the start position So, a plurality of fixed points Fp are embedded on the runway Tr. The fixed point Fp is constituted by a combination of magnetic poles of a plurality of magnets. The reading unit 7 is a magnetic sensor that reads such magnetic field information from a fixed point Fp. The magnetic field information includes position information indicating a start position So or a specific position, and speed control information such as temporary stop and vehicle speed increase / decrease. Note that the fixed point Fp is not limited to a magnet, but may be an RF tag used in RFID (radio frequency identifier).

右前輪5には、右前輪5の回転角を検出する回転角センサ8および右前輪5の回転速度を検出する車輪速センサ9が備えられている。また、ハンドル4の近傍には種々の情報を表示するタッチパネルディスプレイ12が設置されている。回転角センサ8は、車輪の回転角を検出するもので、例えば、ロータリーエンコーダである。なお、回転角センサ8および車輪速センサ9は、右前輪5の代わりに左前輪6または後輪に備えてもよい。   The right front wheel 5 is provided with a rotation angle sensor 8 that detects the rotation angle of the right front wheel 5 and a wheel speed sensor 9 that detects the rotation speed of the right front wheel 5. A touch panel display 12 for displaying various information is installed in the vicinity of the handle 4. The rotation angle sensor 8 detects the rotation angle of the wheel and is, for example, a rotary encoder. The rotation angle sensor 8 and the wheel speed sensor 9 may be provided on the left front wheel 6 or the rear wheel instead of the right front wheel 5.

次に、図2を参照する。図2は車両1の構成を示す機能ブロック図である。車両1には、走路上の障害物を検出する障害物検出装置14と、車両1が誘導線に沿って自律走行するのを制御する自律走行制御部15と、自律走行および障害物の検出により車速の加減速の制御をする車速制御部16と、障害物の検出により車両前方および搭乗者に警告を発する警報器17とを備える。自律走行制御部15は従来の自律走行の制御方法を用いるので、ここでの説明は省略する。警報器17は、車両1の前面に設けられ、音により車両1が接近しているのを周囲に報知することができる。   Reference is now made to FIG. FIG. 2 is a functional block diagram showing the configuration of the vehicle 1. The vehicle 1 includes an obstacle detection device 14 that detects obstacles on the road, an autonomous traveling control unit 15 that controls the vehicle 1 autonomously traveling along the guide line, and autonomous traveling and obstacle detection. A vehicle speed control unit 16 that controls acceleration / deceleration of the vehicle speed, and an alarm device 17 that issues a warning to the front of the vehicle and the passenger by detecting an obstacle are provided. Since the autonomous traveling control unit 15 uses a conventional autonomous traveling control method, description thereof is omitted here. The alarm device 17 is provided on the front surface of the vehicle 1 and can notify the surroundings that the vehicle 1 is approaching by sound.

2.障害物検出装置の構成
次に図3を参照して車両1に備えられた障害物検出装置14の構成を説明する。図3は、障害物検出装置14の構成を示すブロック図である。
2. Configuration of Obstacle Detection Device Next, the configuration of the obstacle detection device 14 provided in the vehicle 1 will be described with reference to FIG. FIG. 3 is a block diagram illustrating a configuration of the obstacle detection device 14.

障害物検出装置14は、車両1の前方の物体までの距離情報を検出する距離情報検出部21と、車両1の前方の視差画像を生成する視差画像生成部23と、スタート位置Soからの車両1の位置に応じて視差画像上の走路を特定する走路位置情報が記憶された走路位置情報記憶部25と、走路上における車両1の位置を推定する位置推定部27と、推定された位置と走路位置情報により視差画像における走路を特定する走路特定部29と、視差画像を基に障害物を検出する障害物検出部31と、検出された障害物が特定された走路上にあるか否かを判定する判定部33と、視差情報から距離情報を算出する距離算出部34と検出された障害物が人であるか否かを判定する人判定部35とを備える。   The obstacle detection device 14 includes a distance information detection unit 21 that detects distance information to an object ahead of the vehicle 1, a parallax image generation unit 23 that generates a parallax image in front of the vehicle 1, and a vehicle from the start position So. A road position information storage unit 25 that stores road position information that identifies a road on the parallax image according to the position of 1, a position estimation unit 27 that estimates the position of the vehicle 1 on the road, and the estimated position Whether or not the detected obstacle is on the specified road, the road identification unit 29 for specifying the road in the parallax image based on the road position information, the obstacle detection unit 31 for detecting the obstacle based on the parallax image, and A determination unit 33 for determining the distance, a distance calculation unit 34 for calculating distance information from the parallax information, and a person determination unit 35 for determining whether or not the detected obstacle is a person.

距離情報検出部21は、車両1の前方の画像を撮影するステレオカメラ3と、ステレオカメラ3により撮影された画像を一時的に保管するバッファ41とを備える。   The distance information detection unit 21 includes a stereo camera 3 that captures an image in front of the vehicle 1 and a buffer 41 that temporarily stores an image captured by the stereo camera 3.

ステレオカメラ3は、左画像センサ3aと右画像センサ3bとの2個の画像センサで構成される。左画像センサ3aおよび右画像センサ3bはCCDやCMOSなど一般的な可視光センサである。左画像センサ3a、右画像センサ3bは予め定められた幾何条件の下で車両1に設置されている。実施例1では、左画像センサ3a、右画像センサ3bは水平方向に一定距離を保たれて設置されている。すなわち、左画像センサ3aおよび右画像センサ3bはそれぞれ平行ステレオの位置関係で配置されている。   The stereo camera 3 is composed of two image sensors, a left image sensor 3a and a right image sensor 3b. The left image sensor 3a and the right image sensor 3b are general visible light sensors such as a CCD and a CMOS. The left image sensor 3a and the right image sensor 3b are installed in the vehicle 1 under predetermined geometric conditions. In the first embodiment, the left image sensor 3a and the right image sensor 3b are installed at a constant distance in the horizontal direction. That is, the left image sensor 3a and the right image sensor 3b are arranged in a parallel stereo positional relationship.

左画像センサ3a、右画像センサ3bは、それぞれ撮影された画像の各行の位置が一致するように、すなわち、エピポーラ線が一致するように配置されている。左画像センサ3aで撮影された画像を左画像とし、右画像センサ3bで撮影された画像を右画像とする。実施例1では左画像センサ3aを基準カメラとし、左画像を基準画像とする。なお、ステレオカメラ3が備える画像センサの数は2個に限られず3個以上でもよい。また、右画像を基準画像としてもよい。 The left image sensor 3a and the right image sensor 3b are arranged so that the positions of the respective rows of the captured images are matched, that is, the epipolar lines are matched. An image photographed by the left image sensor 3a is a left image, and an image photographed by the right image sensor 3b is a right image. In the first embodiment, the left image sensor 3a is a reference camera, and the left image is a reference image. Note that the number of image sensors provided in the stereo camera 3 is not limited to two and may be three or more. The right image may be the reference image.

図4を参照して、撮像センサ3a、3bの座標系を説明する。ステレオカメラ3の横方向(左右方向)にX軸が設けられ、ステレオカメラ3の縦方向(上下方向)にY軸が設けられ、ステレオカメラ3の前方向(奥行き方向)にZ軸が設けられている。なお、X軸およびY軸は左画像および右画像の座標軸である。左画像および右画像との視差情報が障害物検出装置14から車両1の前方の物体までの距離情報となる。   The coordinate system of the image sensors 3a and 3b will be described with reference to FIG. The X axis is provided in the horizontal direction (left and right direction) of the stereo camera 3, the Y axis is provided in the vertical direction (up and down direction) of the stereo camera 3, and the Z axis is provided in the front direction (depth direction) of the stereo camera 3. ing. The X axis and the Y axis are the coordinate axes of the left image and the right image. The disparity information between the left image and the right image is distance information from the obstacle detection device 14 to an object ahead of the vehicle 1.

図3に戻って説明する。バッファ41は、ステレオカメラ3から送られる画像、すなわち、画像センサ3a、3bから送られる各画像を一時的に保管する。バッファ41は、メモリ、フラッシュメモリ、ハードディスク(HDD)などを用いる。なお、図3上ではバッファ41は画像センサ3a、3bのそれぞれに対応して設けられているが、1つのバッファでもよい。なお、保管される各画像は、補正パラメータを用いてレンズ歪み、焦点距離のばらつき等が補正された画像が好ましい。このような補正により、画像センサの光軸に対して垂直な面のテクスチャが画像投影面に対しても同様に投影される。   Returning to FIG. The buffer 41 temporarily stores images sent from the stereo camera 3, that is, images sent from the image sensors 3a and 3b. The buffer 41 uses a memory, a flash memory, a hard disk (HDD), or the like. In FIG. 3, the buffer 41 is provided corresponding to each of the image sensors 3a and 3b, but may be a single buffer. Each stored image is preferably an image in which lens distortion, variation in focal length, and the like are corrected using correction parameters. By such correction, the texture of the plane perpendicular to the optical axis of the image sensor is similarly projected on the image projection plane.

視差画像生成部23は、入力される各画像から視差画像を生成する。すなわち、バッファ41に保管されている左画像および右画像を基に視差画像を生成する。視差画像は例えばSAD等のステレオマッチングにより生成することができる。ステレオマッチングの方法は、他にも、面積相関法や、Census transformが挙げられる。ここでの視差は複数画像間の画素のずれ量を示す。実施例1において、視差は、左画像に対する右画像の横方向の画素のずれ量である。なお、視差画像上のX座標およびY座標は基準画像上のX座標およびY座標と同じである。生成された視差画像は障害物検出部31および走路特定部29へ出力される。   The parallax image generation unit 23 generates a parallax image from each input image. That is, a parallax image is generated based on the left image and the right image stored in the buffer 41. The parallax image can be generated by stereo matching such as SAD. Other stereo matching methods include the area correlation method and the Census transform. The parallax here indicates the amount of pixel shift between a plurality of images. In the first embodiment, the parallax is a pixel shift amount in the horizontal direction of the right image with respect to the left image. Note that the X and Y coordinates on the parallax image are the same as the X and Y coordinates on the reference image. The generated parallax image is output to the obstacle detection unit 31 and the runway identification unit 29.

走路位置情報記憶部25には、走路のスタート位置Soからの距離に応じて、視差画像上の視差値とX座標値により走路を特定する位置情報が記憶されている。図5に示すように、走路Tr上のスタート地点Soから、例えば等距離間隔ごとに、各地点S1〜Snにおける視差画像上の走路の視差値とX座標値とが予め測定されて記憶されている。なお、図5において、地点の表示を途中省略している。   The runway position information storage unit 25 stores position information for specifying the runway based on the parallax value and the X coordinate value on the parallax image according to the distance from the start position So of the runway. As shown in FIG. 5, the parallax value and the X coordinate value of the runway on the parallax image at each of the points S1 to Sn are measured and stored in advance at, for example, equidistant intervals from the start point So on the runway Tr. Yes. In addition, in FIG. 5, the display of the point is abbreviate | omitted on the way.

図6を参照して説明する。図6は、例えば、図5におけるスタート位置Soから距離Laの地点Saにおける視差画像P1を示している。走路位置情報記憶部25には、この視差画像P1における走路TrのX座標値が視差値と関連づけて予め記憶されている。すなわち、地点Saの走路位置情報として、視差値daに対してX座標領域X−X10、視差値dbに対してX座標領域X−X、視差値dcに対してX座標領域X−X、視差値ddに対してX座標領域X−X、視差値deに対してX座標領域X−Xが走路位置情報記憶部25に保管されている。なお、視差値da〜dgの関係は、da>db>dc>dd>de>df>dgである。 This will be described with reference to FIG. FIG. 6 shows, for example, a parallax image P1 at a point Sa at a distance La from the start position So in FIG. In the runway position information storage unit 25, the X coordinate value of the runway Tr in the parallax image P1 is stored in advance in association with the parallax value. That is, as the runway position information of the point Sa, the X coordinate area X 1 -X 10 for the parallax value da, the X coordinate area X 2 -X 9 for the parallax value db, and the X coordinate area X for the parallax value dc The X-coordinate region X 4 -X 7 for the 3- X 8 parallax value dd, and the X-coordinate region X 5 -X 6 for the parallax value de are stored in the road position information storage unit 25. The relationship between the parallax values da to dg is da>db>dc>dd>de>df> dg.

このように、走路位置情報記憶部25は、地点S1〜Snごとに、その地点における視差画像において、走路TrのX座標値と視差値とが関連づけて保管されている。走路位置情報記憶部25は、メモリ、フラッシュメモリ、ハードディスク(HDD)などを用いる。   Thus, the runway position information storage unit 25 stores the X coordinate value and the parallax value of the runway Tr in association with each other in the parallax image at each point S1 to Sn. The track position information storage unit 25 uses a memory, a flash memory, a hard disk (HDD), or the like.

図3に戻って説明する。位置推定部27は、読み取り部7、回転角センサ8、および、位置算出部43を備える。読み取り部7、および、回転角センサ8の各検出値は位置算出部43へ出力される。   Returning to FIG. The position estimation unit 27 includes a reading unit 7, a rotation angle sensor 8, and a position calculation unit 43. The detection values of the reading unit 7 and the rotation angle sensor 8 are output to the position calculation unit 43.

位置算出部43は、入力される各検出値を基に、簡易化されたオドメトリの方法を用いて、スタート位置Soからの車両1の現在位置を算出する。すなわち、スタート位置So、又は、各定点Fpの位置情報が読み取り部7から位置算出部43へ入力される。また、スタート位置So、又は、各定点Fpからの移動距離は、回転角センサ8の検出値をカウントすることで位置算出部43が算出することができる。算出された車両1の位置情報は走路位置情報記憶部25へ出力され、車両1の位置情報と対応する走路位置情報が読み出される。読み出された走路位置情報は走路特定部29へ出力される。   The position calculation unit 43 calculates the current position of the vehicle 1 from the start position So using a simplified odometry method based on each input detection value. That is, the start position So or the position information of each fixed point Fp is input from the reading unit 7 to the position calculating unit 43. Further, the position calculation unit 43 can calculate the movement distance from the start position So or each fixed point Fp by counting the detection value of the rotation angle sensor 8. The calculated position information of the vehicle 1 is output to the road position information storage unit 25, and road position information corresponding to the position information of the vehicle 1 is read out. The read track position information is output to the track specifying unit 29.

車両1は予め定められた走路Trを走行するので、予め定められた位置であるスタート位置So、又は、各定点Fpからの移動距離で走路Tr上の車両1の位置を特定することができる。このように、位置推定部27が走路Tr上における車両1の位置を、スタート位置So、又は、各定点Fpからの移動距離により推定するので、全体座標系を用いなくても車両座標系だけで車両1の位置を推定することができる。さらに、移動距離は1次元のデータ量であるので、車両位置の特定に扱うデータ量を格段に低減することができる。また、位置推定部27は、スタート位置So以外の位置に埋設された定点Fpの磁場情報を読み取ることで、算出された位置の誤差を修正することができる。これにより、車両1の現在位置を高精度に推定することができる。   Since the vehicle 1 travels on the predetermined track Tr, the position of the vehicle 1 on the track Tr can be specified by the start position So that is a predetermined position or the movement distance from each fixed point Fp. Thus, since the position estimation unit 27 estimates the position of the vehicle 1 on the track Tr based on the start position So or the movement distance from each fixed point Fp, only the vehicle coordinate system can be used without using the overall coordinate system. The position of the vehicle 1 can be estimated. Furthermore, since the moving distance is a one-dimensional data amount, the data amount handled for specifying the vehicle position can be significantly reduced. Further, the position estimation unit 27 can correct the error of the calculated position by reading the magnetic field information of the fixed point Fp embedded in a position other than the start position So. Thereby, the current position of the vehicle 1 can be estimated with high accuracy.

走路特定部29は、入力される走路位置情報を基に、視差画像生成部23により生成された視差画像上における走路Trを特定する。走路の特定は、予め記憶されているX座標値と対応する視差値により特定される。図7に示される視差画像P2は、図6に示される視差画像P1と同一の地点のものである。図7において、走路位置情報における視差値deのX座標領域はX−Xであるが、障害物Ob4により、X座標がXの視差値deの領域は無い。この場合、X座標領域がX−X間で視差値deの範囲が走路として特定される。特定された走路領域は判定部33へ出力される。 The runway specifying unit 29 specifies the runway Tr on the parallax image generated by the parallax image generating unit 23 based on the input runway position information. The runway is specified by a parallax value corresponding to an X coordinate value stored in advance. The parallax image P2 shown in FIG. 7 is the same spot as the parallax image P1 shown in FIG. In FIG. 7, the X coordinate area of the parallax value de in the road position information is X 5 -X 6 , but there is no area of the parallax value de having the X coordinate of X 5 due to the obstacle Ob4. In this case, X coordinate area in the range of disparity values de is identified as track between X 5 -X 6. The identified road area is output to the determination unit 33.

障害物検出部31は、視差画像において、X方向に異なる視差値と接し、かつ、同じ視差値の領域が予め定められた値以上のY方向の画素数を有する領域、言い換えると、同じ視差値であって予め定められた高さを有する領域を障害物として検出する。図6および図7において、領域Ob1、Ob2、Ob3、Ob4が障害物として検出される。検出された障害物の領域Ob1〜Ob4が判定部33へ出力される。なお、障害物の領域として同じ視差値に限られず、ある視差値を基準として予め定められた範囲の視差値の領域を一纏めにする処理をすることで、複数の視差値を有する障害物の領域を特定してもよい。   In the parallax image, the obstacle detection unit 31 touches different parallax values in the X direction and has the same parallax value area having a number of pixels in the Y direction equal to or larger than a predetermined value, in other words, the same parallax value. A region having a predetermined height is detected as an obstacle. In FIG. 6 and FIG. 7, the regions Ob1, Ob2, Ob3, Ob4 are detected as obstacles. The detected obstacle areas Ob <b> 1 to Ob <b> 4 are output to the determination unit 33. In addition, it is not restricted to the same parallax value as an area | region of an obstacle, The area | region of the obstruction which has a several parallax value by processing the area | region of the parallax value of the range defined beforehand on the basis of a certain parallax value as a group May be specified.

判定部33は、検出された障害物が走路Tr上に存在するか否かを判定する。判定部33は、入力された障害物の領域の下端のX座標値の範囲が走路の各視差のX座標の範囲内に含まれるかどうかで判定する。これにより、例えば、図7に示される障害物Ob1〜Ob4のうち、障害物Ob4だけが走路Tr上にあると判定される。   The determination unit 33 determines whether or not the detected obstacle exists on the track Tr. The determination unit 33 determines whether or not the input X coordinate value range at the lower end of the obstacle area is included in the X coordinate range of each parallax of the runway. Thereby, for example, it is determined that only the obstacle Ob4 is on the track Tr out of the obstacles Ob1 to Ob4 shown in FIG.

なお、判定部33は、障害物の領域を囲む矩形領域が走路領域と重なるか判定した後で、走路領域と重なる矩形領域を有する障害物に対して、上述した判定をする2段階の判定を実施してもよい。この2段階判定により、より高速に障害物が走路上に存在するか否かを判定することができる。なお、矩形の下端のY座標値(高さ)が予め定められた高さよりも大きい場合は、走路上空にかかる橋や枝等の木の一部として障害物ではないと判定することで、障害物判定の精度を向上させることもできる。   The determination unit 33 determines whether the rectangular area surrounding the obstacle area overlaps the runway area, and then performs the above-described determination for the obstacle having the rectangular area overlapping the runway area. You may implement. By this two-stage determination, it is possible to determine whether or not an obstacle exists on the runway at a higher speed. In addition, when the Y coordinate value (height) of the lower end of the rectangle is larger than a predetermined height, it is determined that it is not an obstacle as a part of a tree such as a bridge or a branch over the runway. The accuracy of object determination can also be improved.

距離算出部34は、走路Tr上に障害物が存在すると判定されると、障害物の領域の視差情報を基に、障害物までの実空間上の距離を算出する。視差画像から距離を算出する方法は、従来から利用されている平行ステレオ法を用いる。算出された距離は車速制御部16へ出力される。車速制御部16は、障害物までの距離に応じて車両1の車速を減速または停止する。車両1と障害物との距離が近い程、減速が大きくなされる。これにより、車両1と障害物との接触回避を向上させることができる。   When it is determined that there is an obstacle on the road Tr, the distance calculation unit 34 calculates a distance in the real space to the obstacle based on the parallax information of the area of the obstacle. As a method for calculating the distance from the parallax image, a conventionally used parallel stereo method is used. The calculated distance is output to the vehicle speed control unit 16. The vehicle speed control unit 16 decelerates or stops the vehicle speed of the vehicle 1 according to the distance to the obstacle. The closer the distance between the vehicle 1 and the obstacle, the greater the deceleration. Thereby, the contact avoidance with the vehicle 1 and an obstruction can be improved.

人判定部35は、視差画像において走路上に存在する障害物の領域と対応する、基準画像上の領域が人であるか否かを判定する。人判定の方法は、画像局所特徴量(HOG特徴量)と統計的学習手法との組み合わせた方法を用いる。また、この他にも、予め用意されたテンプレートを用いたマッチングにより、人判定を実施してもよい。基準画像において、障害物の領域が人であると判定されると、タッチパネルディスプレイ12に人が車両1の前方にいることを搭乗者に注意喚起する。また、警報器17から警笛が鳴らされて車両1の前方にいる人に対して警告する。基準画像において、障害物の領域が人でないと判定された場合、走路の前方に障害物が存在することをタッチパネルディスプレイ12から搭乗者に注意喚起する。   The person determination unit 35 determines whether or not the area on the reference image corresponding to the area of the obstacle existing on the runway in the parallax image is a person. As a human determination method, a method in which an image local feature amount (HOG feature amount) and a statistical learning method are combined is used. In addition, person determination may be performed by matching using a template prepared in advance. If it is determined in the reference image that the area of the obstacle is a person, the touch panel display 12 alerts the passenger that the person is in front of the vehicle 1. Further, a warning whistle is sounded from the alarm device 17 to warn a person in front of the vehicle 1. When it is determined in the reference image that the area of the obstacle is not a person, the touch panel display 12 alerts the passenger that there is an obstacle in front of the runway.

視差画像生成部23、走路特定部29,障害物検出部31、判定部33、距離算出部34、人判定部35、および、位置算出部43はマイクロプロセッサまたはFPGA(Field Programmable Gate Array;再構成可能なゲートアレイ)で構成される。   The parallax image generation unit 23, the runway identification unit 29, the obstacle detection unit 31, the determination unit 33, the distance calculation unit 34, the person determination unit 35, and the position calculation unit 43 are a microprocessor or an FPGA (Field Programmable Gate Array; reconfiguration) Possible gate array).

次に、図8を参照して、実施例1における障害物検出の動作を説明する。図8は距離推定の処理手順を示すフローチャートである。   Next, referring to FIG. 8, the operation of obstacle detection in the first embodiment will be described. FIG. 8 is a flowchart showing a processing procedure for distance estimation.

車両1が走路Trのスタート地点Soから移動開始すると、位置推定部27が車両1の走路Tr上の現在位置を推定する(ステップS01)。また、予め定められた時間間隔でステレオカメラ3が車両1の前方の画像を撮影する。このように複数の画像を撮影することで視差情報(距離情報)を取得する。また、視差画像生成部23が、複数の撮影画像を基に視差画像を生成することで3次元情報を生成する(ステップS02)。次に、走路特定部29が、車両1の現在位置と対応する走路位置情報を基に、視差画像における走路Trを特定する(ステップS03)。また、障害物検出部31が、生成された視差画像内において、障害物を検出する(ステップS04)。次に、判定部33は、検出された障害物が走路Tr上にあるか否かの障害物判定をする(ステップS05)。   When the vehicle 1 starts moving from the start point So of the track Tr, the position estimation unit 27 estimates the current position of the vehicle 1 on the track Tr (step S01). In addition, the stereo camera 3 captures an image in front of the vehicle 1 at a predetermined time interval. Thus, parallax information (distance information) is acquired by photographing a plurality of images. Moreover, the parallax image generation part 23 produces | generates 3D information by producing | generating a parallax image based on a some picked-up image (step S02). Next, the runway specifying unit 29 specifies the runway Tr in the parallax image based on the runway position information corresponding to the current position of the vehicle 1 (step S03). In addition, the obstacle detection unit 31 detects an obstacle in the generated parallax image (step S04). Next, the determination unit 33 determines whether or not the detected obstacle is on the track Tr (step S05).

障害物判定において、走路Tr上に障害物が無いと判定されると(ステップS06のNo)、障害物検出の動作を終了し、ステップS01からの処理が開始される。障害物判定において、走路Tr上に障害物があると判定されると(ステップS06のYes)、人判定部35は、障害物が人か否かを判定する(ステップS07)。障害物が人でない場合(ステップS08のNo)、車速制御部16が障害物との距離に応じて車両1をブレーキ制動も含めた減速または停止制御する(ステップS10)。障害物が人であると判定された場合(ステップS08)、車両1の警報器17から車両前方に、車両1が接近していることを警告する音が発せられる(ステップS09)。また、車速制御部16が人との距離に応じて車両1をブレーキ制動も含めた減速または停止制御する(ステップS10)。   In the obstacle determination, when it is determined that there is no obstacle on the track Tr (No in step S06), the obstacle detection operation is terminated, and the processing from step S01 is started. In the obstacle determination, when it is determined that there is an obstacle on the runway Tr (Yes in step S06), the person determination unit 35 determines whether the obstacle is a person (step S07). If the obstacle is not a person (No in step S08), the vehicle speed control unit 16 performs deceleration or stop control including braking by the vehicle 1 according to the distance from the obstacle (step S10). When it is determined that the obstacle is a person (step S08), a warning sound is generated from the alarm 17 of the vehicle 1 that the vehicle 1 is approaching in front of the vehicle (step S09). In addition, the vehicle speed control unit 16 controls the vehicle 1 to be decelerated or stopped including brake braking according to the distance from the person (step S10).

このように、実施例1によれば、3次元情報上の走路Trを特定する走路位置情報は、距離情報である視差値と車両1の水平方向の座標情報であるX座標値との2次元の情報であるので、3次元の情報量を用いて特定していた従来よりも扱う情報量を少なくすることができ、演算負荷を軽減することができる。これにより、演算時間を短くすることができ、障害物から距離が確保された時点で障害物が走路上にあるか否かを判定することができ、障害物との接触回避を向上させることができる。   As described above, according to the first embodiment, the track position information for specifying the track Tr on the three-dimensional information is a two-dimensional map of a parallax value that is distance information and an X coordinate value that is coordinate information in the horizontal direction of the vehicle 1. Therefore, it is possible to reduce the amount of information handled as compared with the conventional method specified by using the three-dimensional information amount, and to reduce the calculation load. Thereby, the calculation time can be shortened, it can be determined whether or not the obstacle is on the runway when the distance from the obstacle is secured, and the avoidance of contact with the obstacle can be improved. it can.

また、障害物の判定を走路Tr上に限定することで、走路脇にある木などの立体物を障害物として判定しないので、車両1の誤停止を防止し、スムーズに走行することができる。このように、接触可能性の高い走路Tr上の障害物に対して、車両1を、確実に、減速および停止することができる。   In addition, by limiting the determination of the obstacle to the road Tr, a three-dimensional object such as a tree on the side of the road is not determined as an obstacle, so that the vehicle 1 can be prevented from being erroneously stopped and can be smoothly driven. In this way, the vehicle 1 can be surely decelerated and stopped with respect to an obstacle on the traveling road Tr having a high possibility of contact.

また、距離情報検出部21がステレオカメラ3を有することで、視差画像を3次元情報として用いることができる。これにより、視差画像中の走路Trの判定および障害物の検出を適切に実施することができる。また、1次元スキャンのレーザーレーダを用いると、路面のアップダウンにより路面を障害物として検出しやすいが、ステレオカメラ3を用いることで、より路面のうねりの影響を受けにくく障害物を検出することができる。   Further, since the distance information detection unit 21 includes the stereo camera 3, the parallax image can be used as three-dimensional information. Thereby, determination of the runway Tr in a parallax image and the detection of an obstruction can be implemented appropriately. In addition, when a one-dimensional scan laser radar is used, it is easy to detect the road surface as an obstacle by up and down the road surface. However, by using the stereo camera 3, the obstacle can be detected less easily by the influence of the road surface. Can do.

また、現在位置推定の精度をさらに向上させたい場合、誤差を補正する間隔を短くすればよい。例えば、走路に埋設する定点Fpの数を増やすだけでよい。このようにすることで、高価なGPSやセンサを車両ごとに搭載する必要がないので、安価で高精度な現在位置推定が可能となる。   In order to further improve the accuracy of the current position estimation, the error correction interval may be shortened. For example, it is only necessary to increase the number of fixed points Fp embedded in the runway. By doing in this way, since it is not necessary to mount expensive GPS and a sensor for every vehicle, cheap and highly accurate present position estimation is attained.

次に、図9を参照して実施例2に係る障害物検出装置について説明する。図9は実施例2における障害物検出装置の構成を示すブロック図である。実施例2において、実施例1に示した符号と同一の符号で示した部分は、実施例1と同様の構成であるのでここでの説明は省略する。また、以下に記載した以外の車両および障害物検出装置の構成は実施例1と同様である。   Next, an obstacle detection apparatus according to the second embodiment will be described with reference to FIG. FIG. 9 is a block diagram illustrating a configuration of the obstacle detection apparatus according to the second embodiment. In the second embodiment, the parts indicated by the same reference numerals as those in the first embodiment have the same configuration as in the first embodiment, and thus the description thereof is omitted here. The configurations of the vehicle and the obstacle detection device other than those described below are the same as those in the first embodiment.

実施例2の障害物検出装置14’の特徴は、実施例1における障害物検出装置14の距離情報検出部21としてステレオカメラ3の代わりに距離測定器21’を用いる点である。実施例1ではステレオカメラ3の2台の画像センサを用いて視差情報を得ることで距離情報を検出していた。実施例2では距離測定器21’を用いることで、直接、障害物検出装置14’から車両1の前方の物体までの距離情報を検出する。したがって、実施例2では、実施例1の視差値に代えて距離情報の実測値が用いられる。   The feature of the obstacle detection device 14 ′ of the second embodiment is that a distance measuring device 21 ′ is used instead of the stereo camera 3 as the distance information detection unit 21 of the obstacle detection device 14 of the first embodiment. In the first embodiment, distance information is detected by obtaining parallax information using two image sensors of the stereo camera 3. In the second embodiment, distance information from the obstacle detection device 14 ′ to an object ahead of the vehicle 1 is directly detected by using the distance measuring device 21 ′. Therefore, in the second embodiment, the measured value of the distance information is used instead of the parallax value of the first embodiment.

実施例2における障害物検出装置14は、ステレオカメラ3の代わりに距離測定器21’備えられた構成である。距離測定器21’は、例えば、距離測定用レーダーやレーザーレーダー(LIDAR)である。レーダースキャンにより、極座標における距離情報を得ることができる。したがって、実施例2では、実施例1のX座標値に代えてスキャン角度θが用いられる。また、実施例1の視差画像生成部23に代えて、実施例2では距離画像生成部23’が備えられている。距離画像生成部23’は、横軸がスキャン角度θで、縦軸がY軸で、画素値が距離情報である距離画像を生成する。なお、Y座標値は少なくとも2点以上であることが好ましい。また、実施例2における走路位置情報記憶部25’は、地点S1〜Snごとに、その地点における距離画像において、走路Trのθ値と距離値rとが関連づけて保管されている。   The obstacle detection device 14 according to the second embodiment has a configuration in which a distance measuring device 21 ′ is provided instead of the stereo camera 3. The distance measuring device 21 'is, for example, a distance measuring radar or a laser radar (LIDAR). Distance information in polar coordinates can be obtained by radar scanning. Therefore, in the second embodiment, the scan angle θ is used instead of the X coordinate value of the first embodiment. Further, in place of the parallax image generation unit 23 of the first embodiment, a distance image generation unit 23 ′ is provided in the second embodiment. The distance image generation unit 23 ′ generates a distance image in which the horizontal axis is the scan angle θ, the vertical axis is the Y axis, and the pixel value is distance information. The Y coordinate value is preferably at least two points. In addition, the road position information storage unit 25 ′ according to the second embodiment stores the θ value of the road Tr and the distance value r in association with each other in the distance image at each point S1 to Sn.

このように、実施例2によれば、距離情報検出部として距離測定用レーダーを用いることで、スキャン角度θに対する距離情報rを適切に取得することができる。ステレオカメラ3を用いるよりも、特に遠方で精度良く距離計測をすることができ、3次元情報中の走路Trの判定および障害物の検出を適切に実施することができる。   As described above, according to the second embodiment, the distance information r with respect to the scan angle θ can be appropriately acquired by using the distance measurement radar as the distance information detection unit. Rather than using the stereo camera 3, distance measurement can be performed with accuracy particularly at a distance, and the determination of the track Tr and the detection of an obstacle in the three-dimensional information can be appropriately performed.

次に、図10を参照して実施例3に係る障害物検出装置について説明する。図10は実施例3における障害物検出装置の構成を示すブロック図である。実施例3において、実施例1に示した符号と同一の符号で示した部分は、実施例1と同様の構成であるのでここでの説明は省略する。また、以下に記載した以外の車両および障害物検出装置の構成は実施例1と同様である。   Next, an obstacle detection apparatus according to the third embodiment will be described with reference to FIG. FIG. 10 is a block diagram illustrating a configuration of the obstacle detection apparatus according to the third embodiment. In the third embodiment, the parts indicated by the same reference numerals as those shown in the first embodiment have the same configuration as that of the first embodiment, and thus the description thereof is omitted here. The configurations of the vehicle and the obstacle detection device other than those described below are the same as those in the first embodiment.

実施例1において、走路Tr上にあると判定された障害物に対して人であるか否かを判定することで、人を検出していた。これに対して、実施例3の障害物検出装置54の特徴は、走路Trを含む走路Trよりも広い範囲内に存在する障害物に対して人であるか否かを判定することで、人を検出する点である。このように人を検出する場合、特定された走路Tr領域よりも、走路幅方向に実距離で例えば1mほど広げた範囲において、人を検出することが好ましい。これにより、走路Tr領域に体の一部だけがあるような人も検出することができるので、早期に回避行動をとることができる。   In the first embodiment, a person is detected by determining whether or not the obstacle is determined to be on the track Tr. On the other hand, the feature of the obstacle detection device 54 according to the third embodiment is that it is determined whether or not a person is an obstacle present in a wider range than the runway Tr including the runway Tr. It is a point to detect. Thus, when detecting a person, it is preferable to detect a person in the range extended about 1 m by actual distance in the track width direction rather than the specified track Tr area | region. Thereby, since it is possible to detect a person who has only a part of the body in the runway Tr region, an avoidance action can be taken early.

実施例3の障害物検出装置54は、実施例1における障害物検出装置14の構成に走路拡張領域特定部64を備えている点である。実施例1では、判定部33により障害物が有るか否かを判定していたのは、走路特定部29により特定された走路内においてであった。実施例3では、これに加えて、図11に示すように、走路Trから幅方向外側に予め定められた範囲だけ拡張された領域を走路拡張領域Tr’として走路拡張領域特定部64が特定する。この走路拡張領域Tr’において、障害物の判定および人の判定を実施する。拡張される予め定められた範囲は、走路幅方向に実距離で例えば1mほど広げた範囲である。すなわち、1mに対応する視差に応じた画素数分だけ、図6で示される特定された走路幅よりも外側へ拡張される。   The obstacle detection device 54 according to the third embodiment is that the configuration of the obstacle detection device 14 according to the first embodiment includes a runway extension area specifying unit 64. In the first embodiment, the determination unit 33 determines whether or not there is an obstacle in the runway identified by the runway identification unit 29. In the third embodiment, in addition to this, as shown in FIG. 11, the road extension area specifying unit 64 specifies an area extended from the road Tr by a predetermined range outward in the width direction as the road extension area Tr ′. . In this runway extension region Tr ', obstacle determination and person determination are performed. The predetermined range to be expanded is a range expanded by about 1 m, for example, in the actual road width direction. That is, the number of pixels corresponding to the parallax corresponding to 1 m is extended outward from the specified traveling width shown in FIG.

実施例3の判定部33’は実施例1の判定部33の機能に加えて、障害物検出部31にて検出された障害物が、走路拡張領域特定部64により特定された走路拡張領域Tr’に存在するか否かを判定する。さらに、実施例3の人判定部35’は実施例1の人判定部35の機能に加えて、走路拡張領域特定部64により特定された走路拡張領域Tr’に存在すると判定された障害物が人であるか否かを判定する。   In addition to the function of the determination unit 33 according to the first embodiment, the determination unit 33 ′ according to the third embodiment is configured such that the obstacle detected by the obstacle detection unit 31 is determined by the road extension region specifying unit 64. Determine if it exists in '. Furthermore, in addition to the function of the human determination unit 35 of the first embodiment, the human determination unit 35 ′ of the third embodiment includes an obstacle determined to be present in the lane expansion area Tr ′ specified by the lane expansion area specification section 64. Determine if you are a person.

以上の構成により、判定部33’および人判定部35’において、走路Tr上および走路拡張領域Tr’上における障害物判定および人判定のそれぞれの処理頻度を変えることができる。すなわち、処理時間がかかり、かつ、検出結果を速度制御に用いない走路周辺の人検出の処理頻度を少なくすることができる。したがって、走路Tr上の障害物検出処理のフレームレートを確保することができる。この結果、障害物の誤検出を避けることができ、車両1の安定した停止が可能となる。1フレームの検出結果だけを用いるより、複数フレームの検出結果を用いる方が誤検出による誤停止を抑制できるので、走路Tr上の障害物検出処理のフレームレートは高い方がよい。   With the above configuration, in the determination unit 33 ′ and the person determination unit 35 ′, it is possible to change the processing frequency of obstacle determination and person determination on the track Tr and the track extension region Tr ′. That is, processing time is required, and the processing frequency of human detection around the road where the detection result is not used for speed control can be reduced. Therefore, the frame rate of the obstacle detection process on the runway Tr can be ensured. As a result, erroneous detection of an obstacle can be avoided, and the vehicle 1 can be stably stopped. Since using the detection results of a plurality of frames can suppress erroneous stop due to erroneous detection rather than using only the detection result of one frame, it is better that the frame rate of the obstacle detection process on the track Tr is higher.

このように、接触可能性の高い走路Tr上の障害物に対して、車両1を、確実に、減速および停止することができる。また、走路の幅方向端部付近にいる人は、走路周辺の木々等の静止物と混同しやすい。さらに、このような人の手等の体の一部が、車両1に接触してしまう接触可能性の判断は難しい。このような人に対しても、人を検出することで、警報を発することができ、走路から離れた位置に移動してもらうことで、接触率低減と、不快な誤停止の回避との両立を可能とすることができる。   In this way, the vehicle 1 can be surely decelerated and stopped with respect to an obstacle on the traveling road Tr having a high possibility of contact. Also, people near the end of the runway in the width direction are easily confused with stationary objects such as trees around the runway. Furthermore, it is difficult to determine the possibility of contact that a part of the body such as a human hand comes into contact with the vehicle 1. Even for such people, by detecting the person, an alarm can be issued, and by moving to a position away from the runway, both reduction of contact rate and avoidance of unpleasant false stop are achieved. Can be made possible.

次に、図12を参照して実施例4に係る障害物検出装置について説明する。図12は実施例4における障害物検出装置の構成を示すブロック図である。実施例4において、実施例1に示した符号と同一の符号で示した部分は、実施例1と同様の構成であるのでここでの説明は省略する。また、以下に記載した以外の車両および障害物検出装置の構成は実施例1と同様である。   Next, an obstacle detection apparatus according to the fourth embodiment will be described with reference to FIG. FIG. 12 is a block diagram illustrating a configuration of the obstacle detection apparatus according to the fourth embodiment. In the fourth embodiment, the parts indicated by the same reference numerals as those shown in the first embodiment have the same configuration as that of the first embodiment, and thus the description thereof is omitted here. The configurations of the vehicle and the obstacle detection device other than those described below are the same as those in the first embodiment.

実施例1において、生成した視差画像全体の中から障害物を検出し、検出された障害物が走路上にあるか否かを判定していた。これに対して、実施例4では、生成した視差画像の中から、走路上の視差画像を抽出し、抽出された走路上視差画像の中から障害物を検出する。これにより、障害物を検出する領域が小さくなるので、演算負荷をより軽減することができる。   In the first embodiment, an obstacle is detected from the entire generated parallax image, and it is determined whether or not the detected obstacle is on the road. On the other hand, in Example 4, a parallax image on the road is extracted from the generated parallax image, and an obstacle is detected from the extracted parallax image on the road. Thereby, since the area | region which detects an obstruction becomes small, a calculation load can be reduced more.

実施例4の走路上視差画像抽出部66は、視差画像生成部23により生成された視差画像に対して、走路位置情報記憶部25に記憶されている走路位置情報を基に、走路上の視差画像のみを抽出する。例えば、図7に示す視差画像を視差画像生成部23が生成したとする。走路上視差画像抽出部66は走路位置情報から、走路Tr領域の視差画像および視差領域ごとに同一の視差値を有する走路TrよりY方向上の視差画像を抽出する。図13は、抽出された走路上視差画像P3を示す。   The parallax image extraction unit 66 on the road according to the fourth exemplary embodiment uses the parallax image generated by the parallax image generation unit 23 based on the road position information stored in the road position information storage unit 25 and the parallax on the road. Extract only images. For example, it is assumed that the parallax image generating unit 23 generates the parallax image illustrated in FIG. The on-road parallax image extraction unit 66 extracts, from the road position information, a parallax image in the Y direction from the parallax image of the road Tr area and the road Tr having the same parallax value for each parallax area. FIG. 13 shows the extracted on-road parallax image P3.

領域Ob4は視差値dcを有する。領域Ob4は、走路Tr上の視差値dcを有するX座標領域X−X間の走路TrよりY方向上方向にある視差画像として抽出される。また、領域Ob1’は、走路Tr上の視差値deを有するX座標領域X−X間の走路TrよりY方向上方向にある視差画像として抽出される。走路Tr上の視差画像だけを抽出するので、走路Trが特定されるだけでなく、実施例1の図7の視差画像と比べて、Ob2、Ob3が削除されており、走路Tr外の障害物を検出しなくてよい。 The region Ob4 has a parallax value dc. The region Ob4 is extracted as a parallax image in the Y-direction upward direction from the road Tr between the X coordinate areas X 3 to X 8 having the parallax value dc on the road Tr. In addition, the region Ob1 ′ is extracted as a parallax image that is located in the Y direction upward from the road Tr between the X coordinate areas X 5 and X 6 having a parallax value de on the road Tr. Since only the parallax image on the runway Tr is extracted, not only the runway Tr is specified, but Ob2 and Ob3 are deleted as compared with the parallax image of FIG. Need not be detected.

抽出された走路上視差画像は障害物検出部31’に送られる。障害物検出部31’は走路上視差画像P3内から実施例1と同様に障害物を検出する。この結果、領域Ob4が障害物として検出される。領域Ob1’は、そのY座標値の最小値が走路Trより離れているので障害物として検出されない。人判定部35は検出された障害物Ob4が人であるか否かを判定する。また、障害物検出装置56は拡張領域抽出部64を備えてもよい。拡張領域抽出部64は、図14に示すように、抽出された走路Trから幅方向外側に予め定められた範囲だけ拡張された走路拡張領域Tr’の視差情報を抽出する。図14は、例えば、図6に示す視差画像P1を視差画像生成部23が生成した場合に抽出される走路Trおよび走路拡張領域Tr’上の視差画像P4を示す。障害物検出部31’は、この抽出された走路拡張領域Tr’上においても障害物を検出する。走路拡張領域Tr’において障害物が検出されると、人判定部35が検出された障害物に対して人であるか否かの判定を実施する。これにより、実施例3における走路拡張領域特定部64を備えた場合と同様の効果を得ることができる。   The extracted on-road parallax image is sent to the obstacle detection unit 31 '. The obstacle detection unit 31 ′ detects an obstacle from the on-road parallax image P <b> 3 as in the first embodiment. As a result, the region Ob4 is detected as an obstacle. The area Ob1 'is not detected as an obstacle because the minimum value of the Y coordinate value is away from the runway Tr. The person determination unit 35 determines whether or not the detected obstacle Ob4 is a person. The obstacle detection device 56 may include an extended area extraction unit 64. As shown in FIG. 14, the extension area extraction unit 64 extracts disparity information of the road extension area Tr ′ extended from the extracted road Tr by a predetermined range outward in the width direction. FIG. 14 shows, for example, the parallax image P4 on the runway Tr and the runway extension region Tr ′ extracted when the parallax image generation unit 23 generates the parallax image P1 shown in FIG. The obstacle detection unit 31 ′ detects an obstacle also on the extracted runway extension region Tr ′. When an obstacle is detected in the runway extension region Tr ′, the person determination unit 35 determines whether or not the detected obstacle is a person. Thereby, the effect similar to the case where the runway expansion area specific | specification part 64 in Example 3 is provided can be acquired.

次に、図15を参照して、実施例4における障害物検出の動作を説明する。図15は障害物検出の処理手順を示すフローチャートである。なお、ステップS01、S02は実施例1と同様であるので説明を省略する。   Next, with reference to FIG. 15, the operation of obstacle detection in the fourth embodiment will be described. FIG. 15 is a flowchart showing a processing procedure for obstacle detection. Since steps S01 and S02 are the same as those in the first embodiment, the description thereof is omitted.

走路上視差画像抽出部66が、車両1の現在位置と対応する走路位置情報を基に、視差画像の中から走路上の視差画像を抽出する(ステップS03)。次に、障害物検出部31’が、抽出された走路上の視差画像内において障害物検出を開始する(ステップS04)。走路上視差画像内にて障害物が検出されないと(ステップS06のNo)、障害物検出の動作を終了し、ステップS01からの処理が開始される。障害物検出において、走路Tr上に障害物が検出されると(ステップS06のYes)、人判定部35は、障害物が人か否かを判定する(ステップS07)。なお、ステップS07以降の処理は実施例1と同様であるので説明を省略する。   The on-road parallax image extraction unit 66 extracts a parallax image on the road from the parallax image based on the road position information corresponding to the current position of the vehicle 1 (step S03). Next, the obstacle detection unit 31 'starts obstacle detection in the extracted parallax image on the road (step S04). If no obstacle is detected in the parallax image on the road (No in step S06), the obstacle detection operation is terminated, and the processing from step S01 is started. In the obstacle detection, when an obstacle is detected on the track Tr (Yes in step S06), the person determination unit 35 determines whether the obstacle is a person (step S07). In addition, since the process after step S07 is the same as that of Example 1, description is abbreviate | omitted.

このように、実施例4によれば、走路外の静止物を障害物として検出しなくなるので、演算負荷を軽減することができる。例えば、走路外の塀などにもたれかかる人を検出する場合、塀と人とが一体で障害物として検出されるので、この一体物を人として検出するのは困難であった。しかしながら、実施例4によれば、走路外の塀は視差画像上において除去されるので、走路内の人だけを障害物として検出することができ、障害物の検出精度を向上させることができる。なお、ステレオカメラの代わりにレーダーを用いる場合は、走路上範囲外のデータをマスクすればよい。   As described above, according to the fourth embodiment, a stationary object outside the road is not detected as an obstacle, so that the calculation load can be reduced. For example, when detecting a person leaning on a kite off the runway, the kite and the person are detected as an obstacle together, and it has been difficult to detect this single object as a person. However, according to the fourth embodiment, the wrinkles outside the road are removed on the parallax image, so that only people on the road can be detected as obstacles, and the detection accuracy of the obstacles can be improved. In addition, when using a radar instead of a stereo camera, what is necessary is just to mask the data outside a runway range.

本発明は、上記実施例のものに限らず、次のように変形実施することができる。   The present invention is not limited to the above embodiment, and can be modified as follows.

(1)実施例3において、走路上にあると判定された障害物に対して人であるか否かを判定することで人を検出していた。これに限らず、障害物の検出と並行して、走路Trを含む走路Trよりも広い範囲内において人を検出する人検出部を備えてもよい。これにより、走路Tr領域に体の一部だけがあるような人も検出することができるので、早期に回避行動をとることができる。また、障害物検出部31とは別体の人検出部を備えることで、それぞれ異なる処理を並行してすることができる。すなわち、接触可能性の高い走路上の障害物に対してと、接触可能性の判断が難しく、かつ走路周辺の木々と混同しやすい走路の幅方向両端付近の領域にいる人に対して異なる処理をすることができる。   (1) In Example 3, a person was detected by determining whether or not the obstacle was determined to be on the runway. Not only this but in parallel with the detection of an obstacle, you may provide the person detection part which detects a person within the range wider than the track Tr including the track Tr. Thereby, since it is possible to detect a person who has only a part of the body in the runway Tr region, an avoidance action can be taken early. Also, by providing a separate human detection unit from the obstacle detection unit 31, different processes can be performed in parallel. In other words, it is difficult to judge obstacles on the runway with high contact possibility, and it is difficult to judge the possibility of contact, and it is easy to be confused with trees around the runway. Can do.

(2)実施例1から4において、それぞれの構成の組み合わせにより得られる障害物検出装置を構成してもよい。   (2) In Examples 1 to 4, an obstacle detection device obtained by a combination of the configurations may be configured.

(3)上記実施例において、障害物検出装置14は車両1に備えられていたがこれに限られない。他にも、例えば、自律走行するロボット用のビジョンシステムや視覚障害者の支援システムなどに採用してもよい。   (3) Although the obstacle detection device 14 is provided in the vehicle 1 in the above embodiment, the present invention is not limited to this. In addition, for example, it may be adopted in a vision system for a robot that travels autonomously or a support system for a visually impaired person.

1 … 車両
3 … ステレオカメラ
3a … 左画像センサ
3b … 右画像センサ
14、56 … 障害物検出装置
21 … 距離情報検出部
21’ … 距離測定器
23 … 3次元情報生成部
25 … 走路位置情報記憶部
27 … 位置推定部
29 … 走路特定部
31、31’ … 障害物検出部
33 … 判定部
35 … 人判定部
66 … 走路上視差画像抽出部
DESCRIPTION OF SYMBOLS 1 ... Vehicle 3 ... Stereo camera 3a ... Left image sensor 3b ... Right image sensor 14, 56 ... Obstacle detection device 21 ... Distance information detection part 21 '... Distance measuring device 23 ... Three-dimensional information generation part 25 ... Track position information storage Unit 27 ... Position estimation unit 29 ... Runway identification unit 31, 31 '... Obstacle detection unit 33 ... Determination unit 35 ... Person determination unit 66 ... Runway parallax image extraction unit

Claims (15)

予め定められた走路を走行する移動体に搭載される障害物検出装置において、
前記障害物検出装置から前記移動体の前方の物体までの距離情報を検出する距離情報検出部と、
前記距離情報を基に前記移動体の前方の3次元情報を生成する3次元情報生成部と、
予め定められた位置からの前記移動体の位置に応じた走路位置情報が記憶された記憶部と、
前記走路上における前記移動体の位置を推定する位置推定部と、
前記走路位置情報を基に、前記3次元情報内における走路上の3次元情報を抽出する走路上3次元情報抽出部と、
抽出された、走路上の前記3次元情報を基に障害物を検出する障害物検出部とを備え、
前記走路位置情報は前記距離情報と前記移動体の水平方向の座標情報により特定される
障害物検出装置。
In the obstacle detection device mounted on a moving body that runs on a predetermined track,
A distance information detection unit that detects distance information from the obstacle detection device to an object in front of the moving body;
A three-dimensional information generation unit that generates three-dimensional information ahead of the moving body based on the distance information;
A storage unit in which track position information corresponding to the position of the moving body from a predetermined position is stored;
A position estimator for estimating the position of the moving object on the runway;
A three-dimensional information extraction unit on the road for extracting three-dimensional information on the road in the three-dimensional information based on the road position information;
Extracted, and a obstacle detection unit for detecting an obstacle based on the three-dimensional information on the track,
The travel path position information is specified by the distance information and horizontal coordinate information of the moving object.
請求項1に記載の障害物検出装置において、
走路上の前記障害物が人であるか否かを判定する人判定部を備える
障害物検出装置。
The obstacle detection device according to claim 1,
An obstacle detection device comprising a person determination unit that determines whether or not the obstacle on the runway is a person.
請求項2に記載の障害物検出装置において、
前記走路位置情報を基に、走路に隣接する予め定められた領域である拡張走路領域における3次元情報を抽出する拡張領域3次元情報抽出部を備え、
前記障害物検出部は、前記拡張走路領域上においても障害物を検出し、
前記人判定部は、前記拡張走路領域内で検出された前記障害物が人であるか否かを判定する
障害物検出装置。
In the obstacle detection device according to claim 2,
Based on the road position information, an extended area 3D information extraction unit that extracts 3D information in an extended road area that is a predetermined area adjacent to the road,
The obstacle detection unit detects an obstacle also on the extended runway area,
The obstacle determination device is configured to determine whether the obstacle detected in the extended runway region is a person.
請求項1に記載の障害物検出装置において、
前記走路位置情報を基に、走路に隣接する予め定められた領域である拡張走路領域における3次元情報を抽出する拡張領域3次元情報抽出部と、
前記拡張走路領域内において前記3次元情報を基に人を検出する人検出部を備える
障害物検出装置。
The obstacle detection device according to claim 1,
Based on the runway position information, an extended area 3D information extraction unit that extracts 3D information in an extended runway area that is a predetermined area adjacent to the runway;
An obstacle detection apparatus comprising a human detection unit that detects a person based on the three-dimensional information in the extended runway region.
予め定められた走路を走行する移動体に搭載される障害物検出装置において、
前記障害物検出装置から前記移動体の前方の物体までの距離情報を検出する距離情報検出部と、
前記距離情報を基に前記移動体の前方の3次元情報を生成する3次元情報生成部と、
予め定められた位置からの前記移動体の位置に応じて前記3次元情報上の走路を特定する走路位置情報が記憶された記憶部と、
前記走路上における前記移動体の位置を推定する位置推定部と、
推定された前記位置と前記走路位置情報により前記3次元情報における走路を特定する走路特定部と、
前記3次元情報を基に障害物を検出する障害物検出部と、
検出された前記障害物が、特定された前記走路上にあるか否かを判定する判定部とを備え、
前記走路位置情報は前記距離情報と前記移動体の水平方向の座標情報により特定される
障害物検出装置。
In the obstacle detection device mounted on a moving body that runs on a predetermined track,
A distance information detection unit that detects distance information from the obstacle detection device to an object in front of the moving body;
A three-dimensional information generation unit that generates three-dimensional information ahead of the moving body based on the distance information;
A storage unit that stores road position information for specifying a road on the three-dimensional information according to the position of the moving body from a predetermined position;
A position estimator for estimating the position of the moving object on the runway;
A road identification unit that identifies a road in the three-dimensional information based on the estimated position and the road position information;
An obstacle detection unit for detecting an obstacle based on the three-dimensional information;
A determination unit that determines whether or not the detected obstacle is on the identified road,
The travel path position information is specified by the distance information and horizontal coordinate information of the moving object.
請求項5に記載の障害物検出装置において、
走路上にあると判定された前記障害物が人であるか否かを判定する人判定部を備える
障害物検出装置。
In the obstacle detection device according to claim 5,
An obstacle detection device comprising a person determination unit that determines whether or not the obstacle determined to be on a runway is a person.
請求項6に記載の障害物検出装置において、
前記特定された走路に対して隣接する予め定められた領域である拡張走路領域を特定する領域特定部を備え、
前記判定部は、検出された前記障害物が、特定された前記拡張走路領域上にあるか否かを判定し、
前記人判定部は、拡張走路領域上にあると判定された前記障害物が人であるか否かを判定する
障害物検出装置。
The obstacle detection device according to claim 6,
An area specifying unit for specifying an extended road area that is a predetermined area adjacent to the specified road;
The determination unit determines whether or not the detected obstacle is on the specified extended track area,
The said person determination part determines whether the said obstacle determined to be on an extended runway area | region is a person The obstacle detection apparatus.
請求項5に記載の障害物検出装置において、
前記特定された走路に対して隣接する予め定められた領域である拡張走路領域を特定する領域特定部と、
特定された前記拡張走路領域内において人を検出する人検出部を備える
障害物検出装置。
In the obstacle detection device according to claim 5,
An area specifying unit for specifying an extended road area that is a predetermined area adjacent to the specified road;
An obstacle detection device comprising a person detection unit for detecting a person in the specified extended track area.
請求項1から8のいずれか1つに記載の障害物検出装置において、
前記位置推定部は前記走路上における前記移動体の位置を予め定められた位置からの移動距離により推定する
障害物検出装置。
In the obstacle detection device according to any one of claims 1 to 8,
The said position estimation part estimates the position of the said mobile body on the said runway from the movement distance from the predetermined position The obstruction detection apparatus.
請求項1から9のいずれか1つに記載の障害物検出装置において、
前記距離情報検出部はステレオカメラを有し、
前記3次元情報は視差画像である
障害物検出装置。
In the obstacle detection device according to any one of claims 1 to 9,
The distance information detection unit has a stereo camera,
The obstacle detection apparatus, wherein the three-dimensional information is a parallax image.
請求項1から10のいずれか1つに記載の障害物検出装置において、
前記距離情報検出部はレーダーを有する
障害物検出装置。
In the obstacle detection device according to any one of claims 1 to 10,
The distance information detection unit includes an radar.
請求項1から11のいずれか1つに記載の障害物検出装置を備える移動体。   A moving body comprising the obstacle detection device according to any one of claims 1 to 11. 請求項12に記載の移動体において、
前記走路上に前記障害物が検出されると警告を発する警報器を備える移動体。
The moving body according to claim 12,
A moving body comprising an alarm device that issues a warning when the obstacle is detected on the runway.
請求項12または13に記載の移動体において、
前記走路上に前記障害物が検出されると前記移動体を減速または停止させる速度制御部を備える移動体。
The moving body according to claim 12 or 13,
A moving body comprising a speed control unit that decelerates or stops the moving body when the obstacle is detected on the running path.
請求項3、4、7、8のいずれか1つに記載の障害物検出装置を備える移動体において、
前記走路上の検出された障害物に対して前記移動体の減速または停止させる速度制御部と、
前記拡張走路領域上の検出された人に対して警告を発する警報器と
を備える移動体。
In a moving object provided with the obstacle detection device according to any one of claims 3, 4, 7, and 8.
A speed control unit for decelerating or stopping the moving body with respect to the detected obstacle on the runway;
A moving body comprising: an alarm device that issues a warning to a detected person on the extended runway area.
JP2015044865A 2015-03-06 2015-03-06 Obstacle detection device and moving body equipped with the same Active JP5947938B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015044865A JP5947938B1 (en) 2015-03-06 2015-03-06 Obstacle detection device and moving body equipped with the same
TW105103848A TWI598854B (en) 2015-03-06 2016-02-04 Obstacle detecting device and moving object provided therewith
KR1020160022324A KR101747761B1 (en) 2015-03-06 2016-02-25 Obstacle detecting device and moving object provided therewith

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015044865A JP5947938B1 (en) 2015-03-06 2015-03-06 Obstacle detection device and moving body equipped with the same

Publications (2)

Publication Number Publication Date
JP5947938B1 true JP5947938B1 (en) 2016-07-06
JP2016164735A JP2016164735A (en) 2016-09-08

Family

ID=56329532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015044865A Active JP5947938B1 (en) 2015-03-06 2015-03-06 Obstacle detection device and moving body equipped with the same

Country Status (3)

Country Link
JP (1) JP5947938B1 (en)
KR (1) KR101747761B1 (en)
TW (1) TWI598854B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114072319A (en) * 2019-07-17 2022-02-18 村田机械株式会社 Traveling vehicle, traveling vehicle system, and traveling vehicle detection method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055371A (en) * 2016-09-28 2018-04-05 アイシン精機株式会社 Travelling environment prediction device
KR101894731B1 (en) * 2016-11-28 2018-09-04 동국대학교 산학협력단 System and method for vehicle collision avoidance
JP7062407B2 (en) * 2017-11-02 2022-05-06 株式会社東芝 Obstacle detection device
JP6886929B2 (en) * 2018-01-09 2021-06-16 日立建機株式会社 Transport vehicle
US11802779B2 (en) * 2018-07-30 2023-10-31 Chiba Institute Of Technology Map generation system and mobile object
KR20210113322A (en) 2019-03-15 2021-09-15 야마하하쓰도키 가부시키가이샤 fixed route driving vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05151345A (en) * 1991-11-29 1993-06-18 Mazda Motor Corp Image processor
JP2013020543A (en) * 2011-07-13 2013-01-31 Yamaha Motor Co Ltd Obstacle detection device for vehicle and vehicle using the same
JP2014126990A (en) * 2012-12-26 2014-07-07 Yamaha Motor Co Ltd Obstacle detection device and vehicle using the same
JP2014164564A (en) * 2013-02-26 2014-09-08 Yamaha Motor Co Ltd Object area estimation method, object area estimation device, and object detection device and vehicle including the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10141954A (en) 1996-11-06 1998-05-29 Komatsu Ltd Device for detecting obstruction on track for moving body
JP4042579B2 (en) 2002-01-28 2008-02-06 松下電工株式会社 Obstacle detection alarm system for vehicles
KR101395089B1 (en) 2010-10-01 2014-05-16 안동대학교 산학협력단 System and method for detecting obstacle applying to vehicle
KR101510050B1 (en) 2014-04-15 2015-04-07 현대자동차주식회사 Vehicle cruise control apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05151345A (en) * 1991-11-29 1993-06-18 Mazda Motor Corp Image processor
JP2013020543A (en) * 2011-07-13 2013-01-31 Yamaha Motor Co Ltd Obstacle detection device for vehicle and vehicle using the same
JP2014126990A (en) * 2012-12-26 2014-07-07 Yamaha Motor Co Ltd Obstacle detection device and vehicle using the same
JP2014164564A (en) * 2013-02-26 2014-09-08 Yamaha Motor Co Ltd Object area estimation method, object area estimation device, and object detection device and vehicle including the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114072319A (en) * 2019-07-17 2022-02-18 村田机械株式会社 Traveling vehicle, traveling vehicle system, and traveling vehicle detection method

Also Published As

Publication number Publication date
JP2016164735A (en) 2016-09-08
TWI598854B (en) 2017-09-11
KR20160108153A (en) 2016-09-19
TW201633267A (en) 2016-09-16
KR101747761B1 (en) 2017-06-15

Similar Documents

Publication Publication Date Title
JP5947938B1 (en) Obstacle detection device and moving body equipped with the same
EP3418943B1 (en) Object detecting apparatus, object detecting method, and computer-readable medium
JP5407898B2 (en) Object detection apparatus and program
US9121717B1 (en) Collision avoidance for vehicle control
JP4337929B2 (en) Moving state estimation device
Miyasaka et al. Ego-motion estimation and moving object tracking using multi-layer lidar
JP2012198207A (en) Image processing device and method, and mobile-body collision prevention apparatus
JP2010003254A (en) Image processing apparatus
GB2313971A (en) Obstacle tracking by moving vehicle
JP2006185406A (en) Object detection device and method
JP6547785B2 (en) Target detection device
JP6066048B2 (en) Obstacle detection device and vehicle using the same
JP2010286926A (en) Surroundings monitoring device
JP3666332B2 (en) Pedestrian detection device
US11514683B2 (en) Outside recognition apparatus for vehicle
JP2018048949A (en) Object recognition device
JP4940706B2 (en) Object detection device
JP2007249257A (en) Apparatus and method for detecting movable element
KR102279754B1 (en) Method, apparatus, server, and computer program for preventing crash accident
JP2015175635A (en) Distance estimation system and vehicle including the same
JP5996421B2 (en) Obstacle detection device and vehicle using the same
JP7217094B2 (en) monitoring device
CN115497282B (en) Information processing device, information processing method, and storage medium
KR20180000965A (en) System and method for Autonomous Emergency Braking
JP7385502B2 (en) sensing system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160603

R150 Certificate of patent or registration of utility model

Ref document number: 5947938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250