JP2003044995A - Device and method for discriminating body kind - Google Patents

Device and method for discriminating body kind

Info

Publication number
JP2003044995A
JP2003044995A JP2001226248A JP2001226248A JP2003044995A JP 2003044995 A JP2003044995 A JP 2003044995A JP 2001226248 A JP2001226248 A JP 2001226248A JP 2001226248 A JP2001226248 A JP 2001226248A JP 2003044995 A JP2003044995 A JP 2003044995A
Authority
JP
Japan
Prior art keywords
vehicle
detected
edge
point sequence
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001226248A
Other languages
Japanese (ja)
Other versions
JP3649166B2 (en
Inventor
Takashi Asano
隆司 浅野
Tomoko Shimomura
倫子 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2001226248A priority Critical patent/JP3649166B2/en
Publication of JP2003044995A publication Critical patent/JP2003044995A/en
Application granted granted Critical
Publication of JP3649166B2 publication Critical patent/JP3649166B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To adequately discriminate whether a body present in front of a vehicle is an obstacle to a travel of the vehicle irrelevantly to the shape of the body. SOLUTION: A scanning laser radar 3 detects an obstacle in front of one's own vehicle as an array of detection points and a grouping process part 4 groups the point array and supplies position information on the point array to a discrimination part 8. Further, a camera 6 picks up an image in front of its vehicle and an image processing part 7 processes the image to generate an edge image and supplies the edge image to the discrimination part 8. The discrimination part 8 compares the position information on the point array supplied from the grouping process part 4 with the edge image supplied from the image processing part 7 to judge the height position of a body present in front of the one's own vehicle, thereby discriminating whether the body is an obstacle to the travel of the one's own vehicle.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、車両に搭載されて
車両前方に存在する物体の種別を判別する物体種別判別
装置及び物体種別判別方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object type determination device and an object type determination method which are mounted on a vehicle and determine the type of an object existing in front of the vehicle.

【0002】[0002]

【従来の技術】近年、車両が走行する道路上及びその周
囲の物体を認識し、その認識結果に応じて車両のブレー
キアクチュエータやスロットルアクチュエータを駆動す
ることで、車両の走行を自動制御する車両走行自動制御
システムの研究開発が盛んに進められている。このよう
な車両走行自動制御システムでは、スキャニングレーザ
レーダを用いた物体種別判別装置により車両前方に存在
する物体の種別を判別し、その判別結果に基づいて、例
えば、先行車両との車間距離を調整したり、障害物を回
避するといったような走行制御を行うようにしているも
のが一般的である。
2. Description of the Related Art In recent years, a vehicle traveling system which automatically controls the traveling of the vehicle by recognizing an object on and around a road on which the vehicle is traveling and driving a brake actuator or a throttle actuator of the vehicle in accordance with the recognition result. Research and development of automatic control systems are being actively pursued. In such a vehicle running automatic control system, the type of an object existing in front of the vehicle is determined by an object type determination device using a scanning laser radar, and based on the determination result, for example, the inter-vehicle distance to the preceding vehicle is adjusted. It is general that the vehicle is controlled to travel or avoid an obstacle.

【0003】スキャニングレーザレーダを用いた物体種
別判別装置では、通常、車両前方に向けてパルス状のレ
ーザ光を出射してこれを路面に対して水平に走査させ、
車両前方に存在する物体にて反射された反射レーザ光を
複数の検出点の点列として検出する。そして、検出され
た複数の検出点の中から、車両からの距離が略等しく、
互いに近接した位置にあるものを同一の物体を示す検出
点の点列としてグルーピングする。そして、このグルー
ピングされた検出点の点列の大きさや形状、車両や他の
グルーピングされた検出点の点列との位置関係等から、
この検出点の点列で示される物体の種別を判別するよう
にしている。
In an object type discriminating apparatus using a scanning laser radar, normally, a pulsed laser beam is emitted toward the front of the vehicle and is scanned horizontally with respect to the road surface.
The reflected laser light reflected by an object existing in front of the vehicle is detected as a sequence of a plurality of detection points. Then, from the plurality of detected points detected, the distance from the vehicle is substantially equal,
Those located at positions close to each other are grouped as a point sequence of detection points indicating the same object. Then, from the size and shape of the point sequence of the grouped detection points, the positional relationship between the vehicle and the point sequence of the other grouped detection points, and the like,
The type of the object indicated by the point sequence of the detection points is discriminated.

【0004】[0004]

【発明が解決しようとする課題】ところで、上述した従
来の物体種別判別装置に用いられるスキャニングレーザ
レーダからの出力、すなわち、スキャニングレーザレー
ダにより検出される検出点からは、車両前方に存在する
物体の高さに関する情報が得られない。このため、従来
の物体種別判別装置では、例えば、車両の走行の妨げに
ならない高さ位置に看板等が設置されている場合に、こ
れを車両前方の障害物として判別してしまい、その結
果、これを避けるような不要な走行制御が行われるとい
った不都合が生じる場合があった。
By the way, from the output from the scanning laser radar used in the above-mentioned conventional object type discriminating apparatus, that is, from the detection point detected by the scanning laser radar, the object existing in front of the vehicle is detected. I can't get any information about the height. Therefore, in the conventional object type determination device, for example, when a signboard or the like is installed at a height position that does not hinder the traveling of the vehicle, it is determined as an obstacle in front of the vehicle, and as a result, There may be a problem that unnecessary traveling control is performed to avoid this.

【0005】車両の走行の妨げにならない看板等を適切
に認識する方法としては、例えば特開平2000−34
6653号公報にて開示されるように、車両前方の画像
を撮像し、この車両前方の画像上に現れる物体と、予め
データベースに格納された形状パターンとのパターンマ
ッチングを行って、車両前方に現れる物体が看板等を示
す形状パターンと一致した場合に、この物体を看板等で
あると認識する方法が考えられる。
As a method for appropriately recognizing a signboard or the like that does not hinder the running of a vehicle, for example, Japanese Patent Laid-Open No. 2000-34 is known.
As disclosed in Japanese Patent No. 6653, an image in front of the vehicle is captured, and an object appearing on the image in front of the vehicle is subjected to pattern matching with a shape pattern stored in advance in a database to appear in front of the vehicle. A method is conceivable in which the object is recognized as a signboard or the like when the object matches the shape pattern indicating the signboard or the like.

【0006】しかしながら、このような方法では、予め
データベースに格納された形状パターンと一致しない物
体については、その種別を適切に認識できないという問
題がある。また、このような問題に対処すべく、多様な
形状パターンをデータベースに格納して様々な形状に対
応できるようにすると、認識処理に長時間を要すること
になり、瞬時の判断が要求される車両走行自動制御シス
テムへの適用が困難となる。
However, with such a method, there is a problem that the type of an object that does not match the shape pattern stored in the database in advance cannot be properly recognized. Further, if various shape patterns are stored in a database so as to cope with various shapes in order to deal with such a problem, it will take a long time for recognition processing, and a vehicle that requires instantaneous judgment is required. It becomes difficult to apply to the automatic traveling control system.

【0007】本発明は、以上のような従来の実情に鑑み
て創案されたものであって、物体の形状に拘わらず、車
両前方に存在する物体が車両の走行の妨げになるものか
どうかを適切に判別することができる物体種別判別装置
及び物体種別判別方法を提供することを目的としてい
る。
The present invention was devised in view of the above-mentioned conventional circumstances, and it was determined whether an object existing in front of a vehicle would interfere with the running of the vehicle regardless of the shape of the object. An object is to provide an object type determination device and an object type determination method that can perform appropriate determination.

【0008】[0008]

【課題を解決するための手段】請求項1に記載の発明
は、車両に搭載されて車両前方に存在する物体の種別を
判別する物体種別判別装置であって、前記車両前方に電
磁波を走査させ、その反射電磁波をもとに前記車両前方
に存在する物体を複数の検出点の点列として検出して、
この検出した点列の前記車両からの距離及び方位を示す
位置情報を出力する物体検出手段と、前記車両前方の画
像を撮像し、この画像から前記車両前方に存在する物体
のエッジを検出してエッジ画像として出力するエッジ検
出手段と、前記物体検出手段から出力された点列の位置
情報と、前記エッジ検出手段から出力されたエッジ画像
とに基づいて、前記車両前方に存在する物体の種別を判
別する判別手段とを備え、前記判別手段が、前記物体検
出手段から出力された点列の位置情報をもとに、前記エ
ッジ検出手段から出力されたエッジ画像上において、前
記物体検出手段により検出された点列で示される物体が
存在する位置での路面高さを検出し、この検出したエッ
ジ画像上の路面高さを基準にして前記車両の高さに相当
する高さ位置を求め、この車両の高さに相当する高さ位
置よりも上方に、前記車両前方に存在する物体を示すエ
ッジがある場合に、前記車両前方に存在する物体を車両
の走行の妨げにならない物体と判別することを特徴とす
るものである。
According to a first aspect of the present invention, there is provided an object type discriminating device which is mounted on a vehicle and discriminates a type of an object existing in front of the vehicle. , Detecting an object existing in front of the vehicle as a point sequence of a plurality of detection points based on the reflected electromagnetic waves,
An object detection unit that outputs position information indicating the distance and azimuth of the detected point sequence from the vehicle, and an image in front of the vehicle are captured, and an edge of an object existing in front of the vehicle is detected from this image. Based on the edge detection unit that outputs as an edge image, the position information of the point sequence output from the object detection unit, and the edge image output from the edge detection unit, the type of the object existing in front of the vehicle is determined. A discriminating means for discriminating, based on the position information of the point sequence output from the object detecting means, the discriminating means detects the edge image output from the edge detecting means by the object detecting means. The road surface height at the position where the object indicated by the selected point sequence exists is detected, and the height position corresponding to the height of the vehicle is obtained based on the detected road surface height on the edge image. When there is an edge indicating an object existing in front of the vehicle above a height position corresponding to the height of the vehicle, the object existing in front of the vehicle is determined as an object that does not hinder the traveling of the vehicle. It is characterized by doing.

【0009】また、請求項2に記載の発明は、請求項1
に記載の物体種別判別装置において、前記判別手段が、
前記物体検出手段により検出された点列の位置情報の経
時変化率と、前記エッジ検出手段により検出された一対
のエッジ間の距離の経時変化率とをそれぞれ求め、これ
らが略等しい場合に、前記物体検出手段により複数の検
出点の点列として検出された物体と、前記エッジ検出手
段によりエッジが検出された物体とが同一の物体である
と判断することを特徴とするものである。
The invention described in claim 2 is the same as claim 1.
In the object type discrimination device described in the paragraph 1,
When the temporal change rate of the position information of the point sequence detected by the object detection means and the temporal change rate of the distance between the pair of edges detected by the edge detection means are obtained, respectively, when these are substantially equal, It is characterized in that the object detected by the object detection unit as a sequence of a plurality of detection points and the object whose edge is detected by the edge detection unit are determined to be the same object.

【0010】また、請求項3に記載の発明は、請求項1
又は2に記載の物体種別判別装置において、前記判別手
段が、前記物体検出手段により検出された点列の長さを
もとにこの点列で示される物体の実際の幅を算出すると
共に、前記エッジ検出手段により検出された一対のエッ
ジ間の距離をもとにこのエッジが検出された物体の実際
の幅を算出し、これらが略等しい場合に、前記物体検出
手段により複数の検出点の点列として検出された物体
と、前記エッジ検出手段によりエッジが検出された物体
とが同一の物体であると判断することを特徴とするもの
である。
The invention described in claim 3 is the same as claim 1
Alternatively, in the object type determination device according to the second aspect, the determination unit calculates the actual width of the object represented by the point sequence based on the length of the point sequence detected by the object detection unit, and The actual width of the object in which this edge is detected is calculated based on the distance between the pair of edges detected by the edge detection means, and when these are substantially equal, the object detection means determines points of a plurality of detection points. It is characterized in that the object detected as a line and the object whose edge is detected by the edge detection means are judged to be the same object.

【0011】また、請求項4に記載の発明は、車両前方
に存在する物体の種別を判別する物体種別判別方法であ
って、前記車両前方に電磁波を走査させ、その反射電磁
波をもとに前記車両前方に存在する物体を複数の検出点
の点列として検出して、この検出した点列の前記車両か
らの距離及び方位を示す位置情報を生成する物体検出ス
テップと、前記車両前方の画像を撮像し、この画像から
前記車両前方に存在する物体のエッジを検出してエッジ
画像を生成するエッジ検出ステップと、前記物体検出ス
テップで生成された点列の位置情報と、前記エッジ検出
ステップで生成されたエッジ画像とに基づいて、前記車
両前方に存在する物体の種別を判別する物体種別判別ス
テップとを有し、前記物体種別判別ステップでは、前記
点列の位置情報をもとに、前記エッジ画像上において、
前記点列で示される物体が存在する位置での路面高さを
検出し、この検出したエッジ画像上の路面高さを基準に
して前記車両の高さに相当する高さ位置を求め、この車
両の高さに相当する高さ位置よりも上方に、前記車両前
方に存在する物体を示すエッジがある場合に、前記車両
前方に存在する物体を車両の走行の妨げにならない物体
と判別することを特徴とするものである。
According to a fourth aspect of the present invention, there is provided an object type discrimination method for discriminating the type of an object existing in front of the vehicle, wherein electromagnetic waves are scanned in front of the vehicle and the reflected electromagnetic waves are used as a basis. An object detection step of detecting an object existing in front of the vehicle as a point sequence of a plurality of detection points, and generating position information indicating the distance and azimuth of the detected point sequence from the vehicle, and the image in front of the vehicle. An edge detection step of capturing an image, detecting an edge of an object existing in front of the vehicle from this image to generate an edge image, position information of the point sequence generated in the object detection step, and generated in the edge detection step An object type determination step of determining the type of an object existing in front of the vehicle based on the edge image thus generated, and in the object type determination step, position information of the point sequence is obtained. DOO to, on the edge image,
The height of the road surface at the position where the object indicated by the point sequence exists is detected, and the height position corresponding to the height of the vehicle is obtained based on the detected road surface height on the edge image. When there is an edge indicating an object existing in front of the vehicle above a height position corresponding to the height of the vehicle, it is possible to determine that the object existing in front of the vehicle is an object that does not hinder the traveling of the vehicle. It is a feature.

【0012】また、請求項5に記載の発明は、請求項4
に記載の物体種別判別方法において、前記物体種別判別
ステップにおいて、前記物体検出ステップで検出された
点列の位置情報の経時変化率と、前記エッジ検出ステッ
プで検出された一対のエッジ間の距離の経時変化率とを
それぞれ求め、これらが略等しい場合に、前記物体検出
ステップにおいて複数の検出点の点列として検出された
物体と、前記エッジ検出ステップにおいてエッジが検出
された物体とが同一の物体であると判断することを特徴
とするものである。
The invention according to claim 5 is the same as claim 4
In the object type determining method according to the above item, in the object type determining step, a temporal change rate of position information of the point sequence detected in the object detecting step and a distance between a pair of edges detected in the edge detecting step The rate of change with time is obtained, respectively, and when these are substantially equal, the object detected as a point sequence of a plurality of detection points in the object detection step and the object whose edge is detected in the edge detection step are the same object. It is characterized by determining that

【0013】また、請求項6に記載の発明は、請求項4
又は5に記載の物体種別判別方法において、前記物体種
別判別ステップにおいて、前記物体検出ステップで検出
された点列の長さをもとにこの点列で示される物体の実
際の幅を算出すると共に、前記エッジ検出ステップで検
出された一対のエッジ間の距離をもとにこのエッジが検
出された物体の実際の幅を算出し、これらが略等しい場
合に、前記物体検出ステップにおいて複数の検出点の点
列として検出された物体と、前記エッジ検出ステップに
おいてエッジが検出された物体とが同一の物体であると
判断することを特徴とするものである。
The invention described in claim 6 is the same as that of claim 4.
Alternatively, in the object type determining method described in the item 5, in the object type determining step, the actual width of the object indicated by the point sequence is calculated based on the length of the point sequence detected in the object detecting step. , Calculating the actual width of the object in which the edge is detected based on the distance between the pair of edges detected in the edge detecting step, and if these are substantially equal, a plurality of detection points in the object detecting step It is characterized in that the object detected as the point sequence and the object whose edge is detected in the edge detection step are the same object.

【0014】[0014]

【発明の効果】請求項1に係る物体種別判別装置によれ
ば、物体検出手段から出力される車両前方の物体を示す
点列の位置情報と、エッジ検出手段から出力される車両
前方の物体を示すエッジ画像との双方を用いて、車両前
方の物体の高さ位置についても判断し、これに基づき車
両前方の物体の種別を判別するようにしているので、車
両前方の物体が車両の走行の妨げとなるものであるかど
うかを適切に判別することができる。したがって、この
物体種別判別装置を用いて車両前方の物体の種別を判別
しながら車両の走行制御を行うようにすれば、車両の走
行制御をより適切に行うことができる。
According to the object type discrimination device of the first aspect, the position information of the point sequence indicating the object in front of the vehicle output from the object detecting means and the object in front of the vehicle output from the edge detecting means are detected. Both the edge image shown is used to determine the height position of the object in front of the vehicle, and based on this, the type of the object in front of the vehicle is determined. It is possible to appropriately determine whether or not it is an obstacle. Therefore, by controlling the traveling of the vehicle while discriminating the type of the object in front of the vehicle by using the object type discriminating device, the traveling control of the vehicle can be more appropriately performed.

【0015】また、請求項2に係る物体種別判別装置に
よれば、物体検出手段により点列として検出された物体
と、エッジ検出手段によりエッジが検出された物体との
同一性の判断が行われるので、車両前方の物体が車両の
走行の妨げとなるものであるかどうかの判断をより確実
に行うことができる。
Further, according to the object type discriminating apparatus of the second aspect, it is possible to judge the identity between the object detected as the point sequence by the object detecting means and the object whose edge is detected by the edge detecting means. Therefore, it is possible to more reliably determine whether the object in front of the vehicle is an obstacle to the traveling of the vehicle.

【0016】また、請求項3に係る物体種別判別装置に
よれば、物体検出手段により点列として検出された物体
と、エッジ検出手段によりエッジが検出された物体との
同一性の判断が行われるので、車両前方の物体が車両の
走行の妨げとなるものであるかどうかの判断をより確実
に行うことができ、更に、この車両前方の物体の実際の
幅が検出されるので、例えば、この物体が車両の走行の
妨げになる場合には、この物体の幅に関する情報をもと
に、この物体を避けるような車両の走行制御を行うこと
ができる。
According to the object type discriminating apparatus of the third aspect, the identity of the object detected as the point sequence by the object detecting means and the object of which the edge is detected by the edge detecting means is determined. Therefore, it is possible to more reliably determine whether or not the object in front of the vehicle is an obstacle to the traveling of the vehicle. Further, since the actual width of the object in front of the vehicle is detected, for example, When the object obstructs the traveling of the vehicle, the vehicle traveling control can be performed so as to avoid the object based on the information about the width of the object.

【0017】また、請求項4に係る物体種別判別方法に
よれば、物体検出ステップにおいて生成される車両前方
の物体を示す点列の位置情報と、エッジ検出ステップに
おいて生成される車両前方の物体を示すエッジ画像との
双方を用いて、車両前方の物体の高さ位置についても判
断し、これに基づき車両前方の物体の種別を判別するよ
うにしているので、車両前方の物体が車両の走行の妨げ
となるものであるかどうかを適切に判別することができ
る。したがって、この物体種別判別方法により車両前方
の物体の種別を判別しながら車両の走行制御を行うよう
にすれば、車両の走行制御をより適切に行うことができ
る。
According to the object type determining method of the fourth aspect, the position information of the point sequence indicating the object in front of the vehicle generated in the object detecting step and the object in front of the vehicle generated in the edge detecting step are detected. Both the edge image shown is used to determine the height position of the object in front of the vehicle, and based on this, the type of the object in front of the vehicle is determined. It is possible to appropriately determine whether or not it is an obstacle. Therefore, by controlling the traveling of the vehicle while discriminating the type of the object in front of the vehicle by this object type discriminating method, the traveling control of the vehicle can be more appropriately performed.

【0018】また、請求項5に係る物体種別判別方法に
よれば、物体検出ステップにおいて点列として検出され
た物体と、エッジ検出ステップにおいてエッジが検出さ
れた物体との同一性の判断が行われるので、車両前方の
物体が車両の走行の妨げとなるものであるかどうかの判
断をより確実に行うことができる。
According to the object type discrimination method of the fifth aspect, the identity of the object detected as the point sequence in the object detection step and the object in which the edge is detected in the edge detection step is determined. Therefore, it is possible to more reliably determine whether the object in front of the vehicle is an obstacle to the traveling of the vehicle.

【0019】また、請求項6に係る物体種別判別方法に
よれば、物体検出ステップにおいて点列として検出され
た物体と、エッジ検出ステップにおいてエッジが検出さ
れた物体との同一性の判断が行われるので、車両前方の
物体が車両の走行の妨げとなるものであるかどうかの判
断をより確実に行うことができ、更に、この車両前方の
物体の実際の幅が検出されるので、例えば、この物体が
車両の走行の妨げになる場合には、この物体の幅に関す
る情報をもとに、この物体を避けるような車両の走行制
御を行うことができる。
According to the object type discrimination method of the sixth aspect, the identity of the object detected as the point sequence in the object detection step and the object of which the edge is detected in the edge detection step is determined. Therefore, it is possible to more reliably determine whether or not the object in front of the vehicle is an obstacle to the traveling of the vehicle. Further, since the actual width of the object in front of the vehicle is detected, for example, When the object obstructs the traveling of the vehicle, the vehicle traveling control can be performed so as to avoid the object based on the information about the width of the object.

【0020】[0020]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

【0021】本発明を適用した物体種別判別装置の概略
構成を図1に示す。この図1に示す物体種別判別装置1
は、車両(以下、自車両という。)に搭載されて、自車
両前方に存在する物体の種別を判別するものであり、物
体検出手段2を構成するスキャニングレーザレーダ3及
びグルーピング処理部4と、エッジ検出手段5を構成す
るカメラ6及び画像処理部7と、判別部8とを備えてい
る。
FIG. 1 shows a schematic configuration of an object type discriminating apparatus to which the present invention is applied. Object type discrimination device 1 shown in FIG.
Is mounted on a vehicle (hereinafter referred to as own vehicle) to determine the type of an object existing in front of the own vehicle, and includes a scanning laser radar 3 and a grouping processing unit 4 which constitute the object detecting means 2. The edge detection means 5 includes a camera 6 and an image processing unit 7, and a determination unit 8.

【0022】スキャニングレーザレーダ3は、レーザ光
を出射して自車両前方を路面に水平な方向に二次元的に
スキャニングし、反射レーザ光を受光することによっ
て、自車両前方に存在する物体を複数の検出点の点列と
して検出する。このスキャニングレーザレーダ3により
検出される検出点は、自車両からの距離を示す情報と方
位を示す情報とを有する点である。スキャニングレーザ
レーダ3は、このような検出点の点列を所定の時間間隔
ΔTで連続的に検出するようになっている。このときの
時間間隔ΔTは、判別部8におけるデータ処理能力や、
物体種別判別装置1に要求される精度等に応じて適宜設
定される。
The scanning laser radar 3 emits a laser beam to two-dimensionally scan the front of the host vehicle in a horizontal direction on the road surface, and receives the reflected laser beam to detect a plurality of objects existing in front of the host vehicle. Detected as a sequence of points. The detection point detected by the scanning laser radar 3 is a point having information indicating the distance from the vehicle and information indicating the direction. The scanning laser radar 3 is adapted to continuously detect such a sequence of detection points at a predetermined time interval ΔT. The time interval ΔT at this time is determined by the data processing capability of the determination unit 8,
It is appropriately set according to the accuracy required for the object type determination device 1.

【0023】このスキャニングレーザレーダ3は、例え
ば図2(A)及び図2(B)に示すように、スキャニン
グ中心軸が自車両100の走行方向に沿い、且つ、スキ
ャニング原点が自車両100の幅方向における中心に位
置するように、自車両100に取り付けられている。
In this scanning laser radar 3, for example, as shown in FIGS. 2 (A) and 2 (B), the central axis of scanning is along the traveling direction of the vehicle 100, and the scanning origin is the width of the vehicle 100. The vehicle 100 is mounted so as to be located at the center in the direction.

【0024】グルーピング処理部4は、スキャニングレ
ーザレーダ3により検出された複数の検出点のうちで、
自車両からの距離が略等しく互いに近接する検出点同士
を1つの物体を示す点列としてグルーピングする。そし
て、グルーピング処理部4は、グルーピング処理の結果
として、1つの物体を示すものとしてグルーピングした
点列の自車両からの距離及び方位を示す位置情報を出力
する。このグルーピング処理部4から出力された点列の
位置情報は、判別部8に供給されることになる。
The grouping processing unit 4 has a plurality of detection points detected by the scanning laser radar 3,
The detection points that are substantially equal in distance from the own vehicle and are close to each other are grouped as a point sequence indicating one object. Then, as a result of the grouping processing, the grouping processing unit 4 outputs position information indicating the distance and azimuth from the host vehicle of the point sequence grouped as indicating one object. The position information of the point sequence output from the grouping processing unit 4 is supplied to the determination unit 8.

【0025】カメラ6は、自車両前方の画像を撮像する
ものである。このカメラ6は、図2(A)及び図2
(B)に示したように、その光軸がスキャニングレーザ
レーダ3のスキャニング中心軸と同様に自車両100の
進行方向に沿い、且つ、その原点がスキャニングレーザ
レーダ3のスキャニング原点と同様に自車両100の幅
方向における中心に位置し、路面に垂直な方向において
スキャニングレーザレーダ3と異なる位置となるよう
に、自車両100に取り付けられている。
The camera 6 picks up an image in front of the vehicle. This camera 6 is shown in FIG.
As shown in (B), its optical axis is along the traveling direction of the host vehicle 100 as is the scanning center axis of the scanning laser radar 3, and its origin is the same as the scanning origin of the scanning laser radar 3. It is mounted on the host vehicle 100 so that it is located at the center of the width direction of 100 and is located at a position different from the scanning laser radar 3 in the direction perpendicular to the road surface.

【0026】なお、以上はスキャニングレーザレーダ3
及びカメラ6の自車両100に対する取り付け方として
理想的な例を説明したが、スキャニングレーザレーダ3
のスキャニング中心軸やカメラ6の光軸が自車両100
の走行方向に沿わない場合や、スキャニングレーザレー
ダ3のスキャニング原点やカメラ6の原点が自車両10
0の幅方向における中心にない場合であっても、これら
スキャニングレーザレーダ3やカメラ6の自車両100
に対する取り付け角度や取り付け位置を幾何学計算時に
考慮するようにすれば、スキャニングレーザレーダ3や
カメラ6が理想的に取り付けられた場合と同様に取り扱
うことができる。
The above is the scanning laser radar 3
Although the ideal example of how to attach the camera 6 to the vehicle 100 has been described, the scanning laser radar 3
The central axis of scanning of the vehicle and the optical axis of the camera 6 are the vehicle 100
If the vehicle does not follow the traveling direction of the vehicle, or if the scanning origin of the scanning laser radar 3 or the origin of the camera 6 is
Even if it is not at the center in the width direction of 0, the own vehicle 100 of these scanning laser radar 3 and camera 6
If the mounting angle and the mounting position with respect to are considered in the geometric calculation, the scanning laser radar 3 and the camera 6 can be handled in the same manner as in the case where they are ideally mounted.

【0027】画像処理部7は、カメラ6により撮像され
た自車両前方の画像を処理して、この画像に現れる物体
のエッジを検出する。そして、自車両前方の画像をエッ
ジ画像として出力する。ここで、エッジの検出には、例
えばハフ変換等の一般的な直線検出手法が適用可能であ
る。この画像処理部7から出力された自車両前方のエッ
ジ画像は、判別部8に供給されることになる。
The image processing unit 7 processes the image in front of the vehicle captured by the camera 6 and detects the edge of the object appearing in this image. Then, the image in front of the host vehicle is output as an edge image. Here, a general straight line detection method such as Hough transform can be applied to the edge detection. The edge image in front of the host vehicle output from the image processing unit 7 is supplied to the determination unit 8.

【0028】判別部8は、グルーピング処理部4から供
給される点列の位置情報と、画像処理部7から供給され
るエッジ画像とに基づいて、自車両前方に存在する物体
の種別を判別する。特に、この判別部8は、グルーピン
グ処理部4から供給される点列の位置情報と、画像処理
部7から供給されるエッジ画像とを照合することによっ
て、自車両前方に存在する物体の高さ位置についても判
断し、この物体が自車両の走行の妨げになるものかどう
かを判別するようにしている。
The discriminating unit 8 discriminates the type of the object existing in front of the host vehicle based on the position information of the point sequence supplied from the grouping processing unit 4 and the edge image supplied from the image processing unit 7. . In particular, the determination unit 8 compares the position information of the point sequence supplied from the grouping processing unit 4 with the edge image supplied from the image processing unit 7 to determine the height of the object existing in front of the own vehicle. The position is also determined, and it is determined whether or not this object interferes with the traveling of the own vehicle.

【0029】具体的には、この判別部8では、まず、グ
ルーピング処理部4から供給される点列の位置情報をも
とに、この点列で示される物体の自車両からの距離が認
識され、この点列で示される物体の存在する位置が、画
像処理部7から供給されるエッジ画像上でどの位置に該
当するかが判断される。そして、このエッジ画像上にお
いて、点列で示される物体の存在する位置での路面高さ
が検出される。このエッジ画像上における物体存在位置
の路面高さの検出は、カメラ6の自車両に対する取付位
置や取付角度、カメラ6の光学系の倍率等から、光学的
な計算によって求めることができる。
Specifically, the discriminating unit 8 first recognizes the distance of the object represented by the point sequence from the host vehicle based on the position information of the point sequence supplied from the grouping processing unit 4. Then, it is determined which position on the edge image supplied from the image processing unit the position where the object shown by this point sequence exists corresponds to. Then, on this edge image, the road surface height at the position where the object shown by the point sequence exists is detected. The road surface height of the object existing position on the edge image can be detected by optical calculation from the mounting position and mounting angle of the camera 6 with respect to the own vehicle, the magnification of the optical system of the camera 6, and the like.

【0030】次に、判別部8では、予め記憶された自車
両の高さに関する情報をもとに、点列で示される物体の
存在する位置での路面高さを基準とした自車両の高さに
相当する高さ位置、すなわち、点列で示される物体の存
在する位置を自車両が走行する場合に、自車両の上端が
位置する高さ位置が、画像処理部7から供給されるエッ
ジ画像上でどこになるかが求められる。
Next, the discriminating section 8 determines the height of the host vehicle based on the height of the road surface at the position where the object indicated by the sequence of points exists based on the information about the height of the host vehicle stored in advance. The height position corresponding to the height, that is, the height position where the upper end of the own vehicle is located when the own vehicle travels at the position where the object indicated by the point sequence exists is the edge supplied from the image processing unit 7. You will be asked where it will be on the image.

【0031】そして、判別部8では、自車両前方に存在
する物体を示すエッジが、エッジ画像上で以上のように
求められた高さ位置よりも上方にある場合には、このエ
ッジで示される物体は、例えば頭上に設置された看板等
のように、自車両の走行の妨げにならない物体であると
判断される。一方、自車両前方に存在する物体を示すエ
ッジが、エッジ画像上で以上のように求められた高さ位
置よりも下方にある場合には、このエッジで示される物
体は、例えば路上に停止している大型車両等の障害物の
ように、自車両の走行の妨げとなる物体であると判断さ
れる。
Then, in the discriminating unit 8, if the edge indicating the object existing in front of the host vehicle is above the height position obtained as described above on the edge image, it is indicated by this edge. The object is determined to be an object that does not hinder the running of the vehicle, such as a signboard installed above the head. On the other hand, when the edge indicating the object existing in front of the host vehicle is lower than the height position obtained as described above on the edge image, the object indicated by this edge stops on the road, for example. It is determined that the object is an object that hinders the traveling of the own vehicle, such as an obstacle such as a large vehicle running.

【0032】本発明を適用した物体種別判別装置1で
は、以上のように、判別部8において自車両前方に存在
する物体の高さ位置についての判断も行い、この自車両
前方に存在する物体が自車両の走行の妨げになるものか
どうかを判別するようにしているので、この物体種別判
別装置1を用いて自車両前方の物体の種別を判別しなが
ら自車両の走行制御を行うようにすれば、例えば自車両
前方に停車した大型車両等の障害物が存在する場合には
これを避けるような走行制御を行い、自車両前方に頭上
の看板等のような自車両の走行の妨げとならない物体が
存在する場合には、これを迂回することなく直進させる
といったように、適切な走行制御を行うことができる。
In the object type discriminating apparatus 1 to which the present invention is applied, as described above, the discriminating unit 8 also discriminates the height position of the object existing in front of the own vehicle, and the object existing in front of the own vehicle is determined. Since it is determined whether or not the vehicle is an obstacle to the traveling of the vehicle, the traveling control of the vehicle can be performed while determining the type of the object in front of the vehicle using the object type determination device 1. For example, when there is an obstacle such as a large vehicle stopped in front of the host vehicle, the traveling control is performed so as to avoid it, and it does not interfere with the traveling of the host vehicle such as an overhead signboard in front of the host vehicle. When an object is present, appropriate traveling control can be performed such that the object goes straight without detouring.

【0033】また、本発明を適用した物体種別判別装置
1では、自車両前方の物体の高さ位置をもとに、この物
体が自車両の走行の妨げになるものかどうかを判別して
いるので、例えば画像のパターンマッチングによって物
体の種別を判別する場合に比べて、多種多様な形状の物
体に対して幅広く対応することができ、また、判別処理
に要する時間を短縮することができる。
Further, the object type discrimination device 1 to which the present invention is applied discriminates whether or not the object interferes with the traveling of the own vehicle based on the height position of the object in front of the own vehicle. Therefore, as compared with the case of discriminating the type of an object by pattern matching of images, for example, it is possible to deal with a wide variety of objects having various shapes and reduce the time required for the discrimination processing.

【0034】ここで、以上のように構成される本発明を
適用した物体種別判別装置1の動作について、具体的な
一例を挙げて説明する。なお、以下では、図2(A)及
び図2(B)に示したように、スキャニングレーザレー
ダ3やカメラ6が理想的な状態で自車両100に取り付
けられているものとし、カメラ6のレンズ中心を原点と
し、スキャニングレーザレーダ3のスキャニング中心軸
及びカメラ6の光軸の方向をZ軸、スキャニングレーザ
レーダ3のスキャニング中心軸(カメラ6の光軸)と直
交し且つスキャニング面に平行な方向をX軸、スキャニ
ングレーザレーダ3のスキャニング面に垂直な方向をY
軸とした座標系を基準座標系として説明する。
Here, the operation of the object type discriminating apparatus 1 to which the present invention configured as described above is applied will be described with reference to a concrete example. In the following, as shown in FIGS. 2A and 2B, it is assumed that the scanning laser radar 3 and the camera 6 are attached to the vehicle 100 in an ideal state, and the lens of the camera 6 is used. With the center as the origin, the directions of the scanning center axis of the scanning laser radar 3 and the optical axis of the camera 6 are the Z axis, the direction orthogonal to the scanning center axis of the scanning laser radar 3 (optical axis of the camera 6) and parallel to the scanning surface. Is the X axis, and the direction perpendicular to the scanning surface of the scanning laser radar 3 is Y
The axis coordinate system will be described as a reference coordinate system.

【0035】例えば、自車両100の前方に先行車両1
01が走行している場合、この先行車両101は、スキ
ャニングレーザレーダ3により、図3(A)に示すよう
な検出点の点列として検出される。これらの各検出点
は、スキャニングレーザレーダ3から出射されたパルス
状のレーザ光が、先行車両101の左右のリフレクタに
て反射され、この反射レーザ光がスキャニングレーザレ
ーダの受光部にて受光されることで検出されるものであ
り、レーザ光の出射時から受光時までの遅延時間に基づ
いて計測される自車両100からの距離の情報と、レー
ザ光の出射角度に基づいて計測される自車両100から
の方位の情報とを有している。
For example, the preceding vehicle 1 is located in front of the host vehicle 100.
When 01 is running, the preceding vehicle 101 is detected by the scanning laser radar 3 as a point sequence of detection points as shown in FIG. At each of these detection points, the pulsed laser light emitted from the scanning laser radar 3 is reflected by the left and right reflectors of the preceding vehicle 101, and the reflected laser light is received by the light receiving portion of the scanning laser radar. It is detected by the information of the distance from the own vehicle 100, which is measured based on the delay time from the emission of the laser light to the reception of the laser light, and the own vehicle measured based on the emission angle of the laser light. It has the information of the direction from 100.

【0036】これらスキャニングレーザレーダ3により
検出された検出点の点列は、グルーピング処理部4によ
って、図3(B)に示すように、互いに近接する検出点
同士がグルーピングされる。そして、このグルーピング
処理部4によってグルーピングされた検出点の点列の自
車両100からの距離及び方位を示す位置情報が、判別
部8に供給されることになる。
The point sequence of the detection points detected by the scanning laser radar 3 is grouped by the grouping processing section 4 as shown in FIG. 3B. Then, the position information indicating the distance and the azimuth of the point sequence of the detection points grouped by the grouping processing unit 4 from the own vehicle 100 is supplied to the determination unit 8.

【0037】判別部8では、グルーピング処理部4によ
ってグルーピングされた点列の位置情報から、これらの
点列が車両の左右のリフレクタに相当するものと判断さ
れる。すなわち、これらの点列が一対のリフレクタに相
当する間隔を保ちながら時間的に連続して検出されるこ
とで、これらの点列が車両の左右のリフレクタに相当す
るものと判断される。また、これらの点列を時間的に連
続して検出したときに、これらの点列の自車両100か
らの距離がほとんど変化しないことから、これらの点列
で示される物体が、自車両100の前方を自車両100
に先行して走行する先行車両101を示すものであると
判別されることになる。
The discriminating unit 8 judges from the position information of the point sequences grouped by the grouping processing unit 4 that these point sequences correspond to the left and right reflectors of the vehicle. That is, it is determined that these point sequences correspond to the left and right reflectors of the vehicle because these point sequences are continuously detected in time while maintaining the intervals corresponding to the pair of reflectors. Further, when these point sequences are continuously detected in time, the distances of these point sequences from the host vehicle 100 hardly change. Therefore, the objects represented by these point sequences are Own vehicle 100 ahead
Will be determined to indicate the preceding vehicle 101 traveling ahead of.

【0038】また、自車両100の前方にトラック等の
大型車両102が停車している場合、この大型車両10
2は、スキャニングレーザレーダ3により、図4(A)
に示すような検出点の点列として検出される。すなわ
ち、トラック等の大型車両102は、その後部にリフレ
クタの他にも多数の反射物を有している場合が多く、ま
た、車体自体の反射率が高い場合が多い。このため、ト
ラック等の大型車両102をスキャニングレーザレーダ
3により検出すると、比較的大きな長さを有する検出点
の点列として検出される。そして、自車両100の前方
に停車している大型車両102を示す点列は、グルーピ
ング処理部4によって、図4(B)に示すようにグルー
ピングされ、その位置情報が判別部8に供給されること
になる。
When a large vehicle 102 such as a truck is stopped in front of the host vehicle 100, the large vehicle 10
2 is the scanning laser radar 3 shown in FIG.
It is detected as a point sequence of detection points as shown in. That is, a large vehicle 102 such as a truck often has a large number of reflectors in addition to a reflector at its rear portion, and in many cases, the reflectance of the vehicle body itself is high. Therefore, when a large vehicle 102 such as a truck is detected by the scanning laser radar 3, it is detected as a point sequence of detection points having a relatively large length. Then, the point train indicating the large vehicle 102 parked in front of the host vehicle 100 is grouped by the grouping processing unit 4 as shown in FIG. 4B, and the position information is supplied to the determination unit 8. It will be.

【0039】また、自車両100前方の頭上(車両の走
行の妨げとならない高さ位置)に看板103が設置され
ている場合、この看板103は、スキャニングレーザレ
ーダ3により、図5(A)に示すような検出点の点列と
して検出される。すなわち、看板103は、その全面に
亘って高い反射率を有しているので、スキャニングレー
ザレーダ3により検出すると、比較的大きな長さを有す
る検出点の点列として検出される。そして、自車両10
0前方の頭上の看板103を示す点列は、グルーピング
処理部4によって、図5(B)に示すようにグルーピン
グされ、その位置情報が判別部8に供給されることにな
る。
Further, when the signboard 103 is installed above the front of the own vehicle 100 (at a height position where it does not hinder the running of the vehicle), the signboard 103 is displayed by the scanning laser radar 3 in FIG. It is detected as a sequence of detection points as shown. That is, since the signboard 103 has a high reflectance over the entire surface, when it is detected by the scanning laser radar 3, the signboard 103 is detected as a point sequence of detection points having a relatively large length. And the own vehicle 10
The point sequence indicating the overhead signboard 103 in front of 0 is grouped by the grouping processing unit 4 as shown in FIG. 5B, and the position information is supplied to the determination unit 8.

【0040】ここで、自車両100の前方に停車してい
る大型車両101は、自車両100の走行の妨げとなる
ものであり、一方、自車両100前方の頭上に設置され
ている看板103は、自車両100の走行の妨げとなら
ないものである。したがって、物体種別判別装置1で
は、これら自車両100の前方に存在する物体が、停車
している大型車両101であるのか、或いは、頭上の看
板102であるのかを適切に判別して、判別結果を車両
の走行制御に反映させることが要求される。
Here, the large vehicle 101 parked in front of the host vehicle 100 is an obstacle to the traveling of the host vehicle 100, while the signboard 103 installed above the head of the host vehicle 100 is overhead. It does not hinder the running of the own vehicle 100. Therefore, the object type determination device 1 appropriately determines whether the object existing in front of the host vehicle 100 is the stopped large vehicle 101 or the overhead signboard 102, and the determination result Is required to be reflected in the traveling control of the vehicle.

【0041】しかしながら、自車両100の前方にトラ
ック等の大型車両102が停止している場合と、自車両
100前方の頭上に看板103が設置されている場合と
では、図4(B)及び図5(B)から分かるように、ス
キャニングレーザレーダ3によって同様の検出点の点列
が検出されて、これらの点列がグルーピング処理部4に
よりグルーピングされ、判別部8には同様な点列の位置
情報が供給されることになる。このため、スキャニング
レーザレーダ3により検出されて、グルーピング処理部
4によりグルーピングされた点列の位置情報だけからで
は、これらの判別を適切に行うことができない。
However, when a large vehicle 102 such as a truck is stopped in front of the own vehicle 100 and when a signboard 103 is installed overhead in front of the own vehicle 100, FIG. As can be seen from FIG. 5 (B), the scanning laser radar 3 detects point sequences of similar detection points, these point sequences are grouped by the grouping processing unit 4, and the position of the similar point sequence is determined by the discrimination unit 8. Information will be provided. For this reason, it is not possible to appropriately perform these determinations only from the position information of the point sequences detected by the scanning laser radar 3 and grouped by the grouping processing unit 4.

【0042】そこで、本発明を適用した物体種別判別装
置1においては、以上のように比較的大きな長さを有す
る点列が検出され、その位置情報が供給されたときは、
カメラ6により撮像された自車両100の前方の画像を
もとに画像処理部7により生成されたエッジ画像を用い
て、これらの高さについての情報も取得して、これらが
自車両100の走行の妨げとなる停止した大型車両10
2であるのか、或いは、自車両100の走行の妨げとな
らない頭上の看板103であるのかの判別を行うように
している。
Therefore, in the object type discriminating apparatus 1 to which the present invention is applied, when a point sequence having a relatively large length is detected and position information thereof is supplied,
Using the edge image generated by the image processing unit 7 based on the image in front of the host vehicle 100 captured by the camera 6, information about these heights is also acquired, and these information are transmitted by the host vehicle 100. Large vehicle 10 that interferes with
It is determined whether the number is 2 or the overhead signboard 103 that does not hinder the travel of the vehicle 100.

【0043】自車両100の前方にトラック等の大型車
両102が停車している場合、カメラ6により自車両1
00の前方の画像を撮像すると、例えば図6(A)に示
すような画像が得られる。そして、このカメラ6により
撮像された自車両100前方の画像を画像処理部7によ
り処理して、この画像に現れる物体のエッジを検出する
と、図6(B)に示すようなエッジ画像が生成されるこ
とになる。
When a large vehicle 102 such as a truck is parked in front of the own vehicle 100, the own vehicle 1 is detected by the camera 6.
When an image in front of 00 is captured, an image as shown in FIG. 6A is obtained, for example. When the image processing unit 7 processes the image in front of the vehicle 100 captured by the camera 6 to detect the edge of the object appearing in this image, an edge image as shown in FIG. 6B is generated. Will be.

【0044】判別部8は、スキャニングレーザレーダ3
により比較的大きな長さを有する点列が検出され、グル
ーピング処理部4によりその点列の位置情報が供給され
たときに、画像処理部7により図6(B)に示すような
エッジ画像が生成されると、このエッジ画像上におい
て、点列で示される物体の存在する位置の路面高さP1
を検出する。そして、この位置の路面高さP1を基準
に、この位置を自車両100が走行したときの自車両1
00の高さに相当する高さ位置P2を求める。そして、
自車両100前方の物体を示すエッジが、求めた高さ位
置P2よりも上方にあるか下方にあるかによって、自車
両100前方の物体が自車両100の走行の妨げになる
物体であるかどうかを判別する。図6(B)に示すエッ
ジ画像では、自車両100前方の物体を示すエッジが高
さ位置P2よりも下方にあるので、この物体は、例えば
自車両100の前方に停車している大型車両102等の
障害物であると判別されることになる。
The discriminating section 8 is for the scanning laser radar 3
Detects a point sequence having a relatively large length, and when the position information of the point sequence is supplied by the grouping processing unit 4, the image processing unit 7 generates an edge image as shown in FIG. 6B. Then, on this edge image, the road surface height P1 at the position where the object indicated by the point sequence exists
To detect. Then, based on the road surface height P1 at this position, the host vehicle 1 when the host vehicle 100 travels at this position
A height position P2 corresponding to the height of 00 is obtained. And
Whether the object in front of the own vehicle 100 is an object that hinders the traveling of the own vehicle 100 depending on whether the edge indicating the object in front of the own vehicle 100 is above or below the obtained height position P2. To determine. In the edge image shown in FIG. 6 (B), the edge indicating the object in front of the host vehicle 100 is below the height position P2, and therefore this object is, for example, the large vehicle 102 stopped in front of the host vehicle 100. Will be determined to be an obstacle.

【0045】一方、自車両100前方の頭上に看板10
3が設置されている場合、カメラ6により自車両100
の前方の画像を撮像すると、例えば図7(A)に示すよ
うな画像が得られる。そして、このカメラ6により撮像
された自車両100前方の画像を画像処理部7により処
理して、この画像に現れる物体のエッジを検出すると、
図7(B)に示すようなエッジ画像が生成されることに
なる。
On the other hand, the signboard 10 is overhead above the vehicle 100.
3 is installed, the own vehicle 100 by the camera 6
When an image in front of is captured, for example, an image as shown in FIG. 7 (A) is obtained. Then, when the image processing unit 7 processes an image in front of the vehicle 100 captured by the camera 6 to detect an edge of an object appearing in this image,
An edge image as shown in FIG. 7B is generated.

【0046】判別部8は、スキャニングレーザレーダ3
により比較的大きな長さを有する点列が検出され、グル
ーピング処理部4によりその点列の位置情報が供給され
たときに、画像処理部7により図7(B)に示すような
エッジ画像が生成されると、このエッジ画像上におい
て、点列で示される物体の存在する位置の路面高さP1
を検出し、この位置の路面高さP1を基準に、この位置
を自車両100が走行したときの自車両100の高さに
相当する高さ位置P2を求める。そして、自車両100
前方の物体を示すエッジが、求めた高さ位置P2よりも
上方にあるか下方にあるかによって、自車両100前方
の物体が自車両100の走行の妨げになる物体であるか
どうかを判別する。図7(B)に示すエッジ画像では、
自車両100前方の物体を示すエッジが高さ位置P2よ
りも上方にあるので、この物体は、例えば自車両100
前方の頭上に設置されている看板103等のような、自
車両100の走行の妨げとならない物体であると判別さ
れることになる。
The discriminator 8 is used for the scanning laser radar 3
Detects a point sequence having a relatively large length, and when the grouping processing unit 4 supplies position information of the point sequence, the image processing unit 7 generates an edge image as shown in FIG. 7B. Then, on this edge image, the road surface height P1 at the position where the object indicated by the point sequence exists
Is detected, and a height position P2 corresponding to the height of the host vehicle 100 when the host vehicle 100 travels at this position is obtained based on the road surface height P1 at this position. Then, the own vehicle 100
It is determined whether the object in front of the own vehicle 100 is an object that hinders the traveling of the own vehicle 100 depending on whether the edge indicating the front object is above or below the obtained height position P2. . In the edge image shown in FIG.
Since the edge indicating the object in front of the host vehicle 100 is above the height position P2, this object is, for example, the host vehicle 100.
The object is determined to be an object that does not hinder the travel of the vehicle 100, such as the signboard 103 installed above the front of the vehicle.

【0047】ところで、以上のような方法で自車両10
0の前方の物体が自車両100の走行の妨げになる物体
であるかどうかを判別するには、スキャニングレーザレ
ーダ3により点列として検出された物体と、画像処理部
7によりエッジが検出された物体とが同一の物体である
ことが前提となる。そのため、判別部8は、以上のよう
な物体の判別を行う際に、スキャニングレーザレーダ3
により点列として検出された物体と、画像処理部7によ
りエッジが検出された物体とが同一の物体であることを
確認することが望ましい。
By the way, the vehicle 10 according to the above method is used.
In order to determine whether the object in front of 0 is an object that hinders the traveling of the host vehicle 100, the object detected as a sequence of points by the scanning laser radar 3 and the edge are detected by the image processing unit 7. It is assumed that the object is the same object. Therefore, the determination unit 8 determines the scanning laser radar 3 when performing the above-described determination of the object.
It is desirable to confirm that the object detected as a sequence of points and the object whose edge is detected by the image processing unit 7 are the same object.

【0048】スキャニングレーザレーダ3により点列と
して検出された物体と、画像処理部7によりエッジが検
出された物体とが同一の物体であることを確認する方法
としては、例えば、物体を示す点列の位置情報の経過時
間に応じた変化率(経時変化率)と、エッジ画像に現れ
る物体を示す一対のエッジ間の距離の経過時間に応じた
変化率(経時変化率)とをそれぞれ求め、これらが略等
しい場合に、スキャニングレーザレーダ3により点列と
して検出された物体と、画像処理部7によりエッジが検
出された物体とが同一の物体であると確認する方法が有
効である。
As a method of confirming that the object detected as a point sequence by the scanning laser radar 3 and the object whose edge is detected by the image processing unit 7 are the same object, for example, a point sequence indicating the object is used. The change rate (time-dependent change rate) of the position information of (1) and the change rate (time-dependent change rate) of the distance between the pair of edges representing the object appearing in the edge image according to the elapsed time are respectively obtained, Is substantially equal, it is effective to confirm that the object detected as a point sequence by the scanning laser radar 3 and the object whose edge is detected by the image processing unit 7 are the same object.

【0049】詳述すると、例えば自車両100前方に停
車した大型車両102や頭上の看板103のように停止
物が存在する場合、自車両100の走行中にスキャニン
グレーザレーダ3によりこの停止物を時間的に連続して
検出すると、検出される点列の自車両100からの距離
は、時間の経過と共に次第に小さくなっていくことにな
る。一方、カメラ6により撮像された自車両100前方
の画像から、画像処理部7によりこの停止物を示す一対
のエッジ(一対の縦エッジ或いは一対の横エッジ)を時
間的に連続して検出すると、検出される一対のエッジ間
の距離は、時間の経過と共に次第に大きくなっていくこ
とになる。
More specifically, for example, when there is a stopped object such as a large vehicle 102 stopped in front of the own vehicle 100 or an overhead signboard 103, the stopped object is timed by the scanning laser radar 3 while the own vehicle 100 is running. In this case, the distance of the detected point sequence from the host vehicle 100 gradually decreases as time passes. On the other hand, when the image processing unit 7 detects a pair of edges (a pair of vertical edges or a pair of horizontal edges) indicating the stationary object continuously from the image captured by the camera 6 in front of the own vehicle 100, The detected distance between the pair of edges gradually increases over time.

【0050】したがって、スキャニングレーザレーダ3
により点列として検出された物体と、画像処理部7によ
りエッジが検出された物体とが同一の停止物である場
合、この停止物を示す点列の自車両100からの距離の
経過時間に応じた変化が、この停止物を示す一対のエッ
ジ間の距離の逆数の経過時間に応じた変化に一致するこ
とになる。すなわち、時刻tにおける停止物を示す点列
の自車両100からの距離をZ(t)、時刻tにおける
停止物を示す一対のエッジ間の距離をY(t)、時刻t
+Δtにおける停止物を示す点列の自車両100からの
距離をZ(t+Δt)、時刻t+Δtにおける停止物を
示す一対のエッジ間の距離をY(t+Δt)とすると、
点列で示される停止物と一対のエッジで示される停止物
とが同一の停止物である場合、下記式(1)が成り立つ
ことになる。
Therefore, the scanning laser radar 3
When the object detected as a point sequence by the image processing object and the object whose edge is detected by the image processing unit 7 are the same stationary object, depending on the elapsed time of the distance from the host vehicle 100 of the point sequence indicating the stationary object. This change corresponds to the change of the reciprocal of the distance between the pair of edges indicating the stop according to the elapsed time. That is, the distance from the host vehicle 100 of the point sequence indicating the stationary object at time t is Z (t), the distance between the pair of edges indicating the stationary object at time t is Y (t), and the time t.
Letting Z (t + Δt) be the distance from the host vehicle 100 of the point sequence indicating the stopped object at + Δt, and Y (t + Δt) be the distance between the pair of edges indicating the stopped object at time t + Δt.
When the stationary object represented by the dot sequence and the stationary object represented by the pair of edges are the same stationary object, the following formula (1) is established.

【0051】 Z(t)/Z(t+Δt)=Y(t+Δt)/Y(t) ・・・(1) したがって、判別部8は、スキャニングレーザレーダ3
により検出された点列の位置情報と、画像処理部7によ
り検出された一対のエッジ間の距離が上記式(1)に合
う変化をしていることを確認することで、スキャニング
レーザレーダ3により検出された点列で示される物体
と、画像処理部7により検出されたエッジで示される物
体とが同一の物体であると認識することができる。
Z (t) / Z (t + Δt) = Y (t + Δt) / Y (t) (1) Therefore, the determination unit 8 causes the scanning laser radar 3
By confirming that the position information of the point sequence detected by and the distance between the pair of edges detected by the image processing unit 7 change according to the above equation (1), the scanning laser radar 3 It is possible to recognize that the object represented by the detected point sequence and the object represented by the edge detected by the image processing unit 7 are the same object.

【0052】また、スキャニングレーザレーダ3により
点列として検出された物体と、画像処理部7によりエッ
ジが検出された物体とが同一の物体であることを確認す
る方法としては、例えば、スキャニングレーザレーダ3
により検出された点列の長さをもとにしてこの点列で示
される物体の実際の幅を算出すると共に、画像処理部7
により検出された一対の縦エッジ間の距離をもとにして
これら一対の縦エッジで示される物体の実際の幅を算出
し、これらが略等しい場合に、スキャニングレーザレー
ダ3により点列として検出された物体と、画像処理部7
によりエッジが検出された物体とが同一の物体であると
確認する方法も有効である。
As a method of confirming that the object detected as a point sequence by the scanning laser radar 3 and the object whose edge is detected by the image processing unit 7 are the same object, for example, the scanning laser radar is used. Three
The actual width of the object represented by this point sequence is calculated based on the length of the point sequence detected by
The actual width of the object represented by the pair of vertical edges is calculated based on the distance between the pair of vertical edges detected by the scanning laser radar 3 and the actual width of the object is detected by the scanning laser radar 3 as a point sequence. Object and image processing unit 7
A method of confirming that the object whose edge has been detected is the same object is also effective.

【0053】詳述すると、スキャニングレーザレーダ3
により検出された点列で示される物体の実際の幅W1
は、図8に示すように、検出点の個数n(点列の長さに
相当)と、1つの検出点が検出されるスキャニングレー
ザレーダ3の走査角度Δθと、自車両100から点列ま
での距離Zとから算出される。すなわち、スキャニング
レーザレーダ3により検出された点列で示される物体の
実際の幅W1は、下記式(2)によって求められる。
More specifically, the scanning laser radar 3
The actual width W1 of the object indicated by the sequence of points detected by
8, the number n of detection points (corresponding to the length of the point sequence), the scanning angle Δθ of the scanning laser radar 3 at which one detection point is detected, and the range from the host vehicle 100 to the point sequence are shown in FIG. The distance Z is calculated. That is, the actual width W1 of the object shown by the point sequence detected by the scanning laser radar 3 is obtained by the following equation (2).

【0054】 W1=tan(n・Δθ)・Z ・・・(2) また、画像処理部7により検出された一対の縦エッジで
示される物体の実際の幅W2は、図9に示すように、一
対の縦エッジ間の距離X1と、この一対の縦エッジで示
される物体の自車両100からの距離Zと、カメラ3の
焦点距離fとから算出される。すなわち、画像処理部7
により検出された一対の縦エッジで示される物体の実際
の幅W2は、下記式(3)によって求められる。
W1 = tan (n · Δθ) · Z (2) Further, the actual width W2 of the object indicated by the pair of vertical edges detected by the image processing unit 7 is as shown in FIG. , The distance X1 between the pair of vertical edges, the distance Z of the object represented by the pair of vertical edges from the own vehicle 100, and the focal length f of the camera 3. That is, the image processing unit 7
The actual width W2 of the object indicated by the pair of vertical edges detected by is calculated by the following equation (3).

【0055】W2=X1・Z/f ・・・(3) したがって、判別部8は、上記式(2)からスキャニン
グレーザレーダ3により検出された点列で示される物体
の実際の幅W1を求め、上記式(3)から画像処理部7
により検出された一対の縦エッジで示される物体の実際
の幅W2を求め、これらW1とW2とが略等しい値とな
ることを確認することで、スキャニングレーザレーダ3
により検出された点列で示される物体と、画像処理部7
により検出されたエッジで示される物体とが同一の物体
であると認識することができる。
W2 = X1Z / f (3) Therefore, the discrimination unit 8 obtains the actual width W1 of the object indicated by the point sequence detected by the scanning laser radar 3 from the above equation (2). , The image processing unit 7 from the above equation (3).
The actual width W2 of the object indicated by the pair of vertical edges detected by the scanning laser radar 3 is determined by confirming that W1 and W2 have substantially the same value.
The object indicated by the sequence of points detected by the image processing unit 7
It can be recognized that the object indicated by the edge detected by is the same object.

【0056】また、この場合には、判別対象とする自車
両100の前方の物体の実際の幅が検出されるので、例
えば、この物体が自車両100の前方に停車している大
型車両102等のように自車両100の走行の妨げにな
る障害物であると判別した際に、この障害物の幅に関す
る情報をもとに、この障害物を避けるように自車両10
0の走行制御を行うことも可能となる。
Further, in this case, the actual width of the object in front of the subject vehicle 100 to be discriminated is detected, and therefore, for example, the large vehicle 102 in which the object is stopped in front of the subject vehicle 100. When it is determined that the obstacle is an obstacle that hinders the traveling of the host vehicle 100 as described above, the host vehicle 10 avoids the obstacle based on the information about the width of the obstacle.
It is also possible to perform zero travel control.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用した物体種別判別装置の概略構成
を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an object type identification device to which the present invention has been applied.

【図2】前記物体種別判別装置を構成するスキャニング
レーザレーダ及びカメラの自車両に対する取り付け状態
を説明する図であり、(A)は自車両の側方から見た様
子を模式的に示す図、(B)は自車両の上方から見た様
子を模式的に示す図である。
FIG. 2 is a diagram for explaining a mounting state of a scanning laser radar and a camera that constitute the object type determination device with respect to a host vehicle, FIG. 2A is a diagram schematically showing a state of the host vehicle viewed from a side; (B) is a diagram schematically showing a state of the vehicle viewed from above.

【図3】自車両前方に先行車両が走行している場合にス
キャニングレーザレーダにより検出される検出点の点列
を示す図であり、(A)はスキャニングレーザレーダに
より検出点を検出した状態を示し、(B)は検出された
検出点の点列をグルーピングした結果を示している。
FIG. 3 is a diagram showing a sequence of detection points detected by a scanning laser radar when a preceding vehicle is traveling in front of the host vehicle. FIG. 3A shows a state in which the detection points are detected by the scanning laser radar. 9B shows the result of grouping the point sequences of the detected detection points.

【図4】自車両前方に大型車両が停車している場合にス
キャニングレーザレーダにより検出される検出点の点列
を示す図であり、(A)はスキャニングレーザレーダに
より検出点を検出した状態を示し、(B)は検出された
検出点の点列をグルーピングした結果を示している。
FIG. 4 is a diagram showing a sequence of detection points detected by a scanning laser radar when a large vehicle is parked in front of the host vehicle. FIG. 4A shows a state in which the detection points are detected by the scanning laser radar. 9B shows the result of grouping the point sequences of the detected detection points.

【図5】自車両前方の頭上に看板が設置されている場合
にスキャニングレーザレーダにより検出される検出点の
点列を示す図であり、(A)はスキャニングレーザレー
ダにより検出点を検出した状態を示し、(B)は検出さ
れた検出点の点列をグルーピングした結果を示してい
る。
FIG. 5 is a diagram showing a sequence of detection points detected by the scanning laser radar when a signboard is installed above the front of the own vehicle. FIG. 5A shows a state in which the detection points are detected by the scanning laser radar. And (B) shows the result of grouping the point sequences of the detected detection points.

【図6】自車両前方に大型車両が停車している場合の画
像を示す図であり、(A)はカメラにより撮像された自
車両前方の画像を示し、(B)は自車両前方の画像をも
とに画像処理部により生成されたエッジ画像を示してい
る。
FIG. 6 is a diagram showing an image when a large vehicle is parked in front of the host vehicle, (A) shows an image in front of the host vehicle captured by a camera, and (B) shows an image in front of the host vehicle. 3 shows an edge image generated by the image processing unit based on the above.

【図7】自車両前方の頭上に看板が設置されている場合
の画像を示す図であり、(A)はカメラにより撮像され
た自車両前方の画像を示し、(B)は自車両前方の画像
をもとに画像処理部により生成されたエッジ画像を示し
ている。
FIG. 7 is a diagram showing an image when a signboard is installed above the front of the own vehicle, (A) shows an image of the front of the own vehicle captured by a camera, and (B) shows a front of the own vehicle. The edge image generated by the image processing unit based on the image is shown.

【図8】スキャニングレーザレーダにより検出された点
列で示される物体の実際の幅を算出する方法を説明する
図である。
FIG. 8 is a diagram illustrating a method of calculating an actual width of an object represented by a sequence of points detected by a scanning laser radar.

【図9】画像処理部により検出された一対の縦エッジで
示される物体の実際の幅を算出する方法を説明する図で
ある。
FIG. 9 is a diagram illustrating a method of calculating an actual width of an object indicated by a pair of vertical edges detected by an image processing unit.

【符号の説明】[Explanation of symbols]

1 物体種別判別装置 2 物体検出手段 3 スキャニングレーザレーダ 4 グルーピング処理部 5 エッジ検出手段 6 カメラ 7 画像処理部 8 判別部 1 Object classification device 2 Object detection means 3 scanning laser radar 4 Grouping processing section 5 Edge detection means 6 cameras 7 Image processing unit 8 Discriminator

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 628 B60R 21/00 628F G06T 1/00 330 G06T 1/00 330B 7/00 300 7/00 300F 7/60 250 7/60 250Z H04N 7/18 H04N 7/18 J Fターム(参考) 5B057 AA16 BA02 CA08 CA12 CA16 DA07 DA11 DC03 DC16 DC30 5C054 AA01 AA05 CA01 FC14 FC15 HA30 5H180 AA01 CC04 CC14 LL01 LL11 5L096 AA06 BA04 CA04 FA06 FA66 FA69 HA02 JA11 JA18 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) B60R 21/00 628 B60R 21/00 628F G06T 1/00 330 G06T 1/00 330B 7/00 300 7/00 300F 7/60 250 7/60 250Z H04N 7/18 H04N 7/18 JF term (reference) 5B057 AA16 BA02 CA08 CA12 CA16 DA07 DA11 DC03 DC16 DC30 5C054 AA01 AA05 CA01 FC14 FC15 HA30 5H180 AA01 CC04 CC14 LL01 ALL06 BA0L04 CA04 FA06 FA66 FA69 HA02 JA11 JA18

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載されて車両前方に存在する物
体の種別を判別する物体種別判別装置であって、 前記車両前方に電磁波を走査させ、その反射電磁波をも
とに前記車両前方に存在する物体を複数の検出点の点列
として検出して、この検出した点列の前記車両からの距
離及び方位を示す位置情報を出力する物体検出手段と、 前記車両前方の画像を撮像し、この画像から前記車両前
方に存在する物体のエッジを検出してエッジ画像として
出力するエッジ検出手段と、 前記物体検出手段から出力された点列の位置情報と、前
記エッジ検出手段から出力されたエッジ画像とに基づい
て、前記車両前方に存在する物体の種別を判別する判別
手段とを備え、 前記判別手段は、前記物体検出手段から出力された点列
の位置情報をもとに、前記エッジ検出手段から出力され
たエッジ画像上において、前記物体検出手段により検出
された点列で示される物体が存在する位置での路面高さ
を検出し、この検出したエッジ画像上の路面高さを基準
にして前記車両の高さに相当する高さ位置を求め、この
車両の高さに相当する高さ位置よりも上方に、前記車両
前方に存在する物体を示すエッジがある場合に、前記車
両前方に存在する物体を車両の走行の妨げにならない物
体と判別することを特徴とする物体種別判別装置。
1. An object type discriminating apparatus which is mounted on a vehicle and discriminates a type of an object existing in front of the vehicle, the electromagnetic wave being scanned in front of the vehicle, and existing in front of the vehicle based on the reflected electromagnetic wave. The object detection means for detecting the object as a point sequence of a plurality of detection points, and outputting position information indicating the distance and azimuth of the detected point sequence from the vehicle, and capturing an image in front of the vehicle. Edge detection means for detecting an edge of an object existing in front of the vehicle from an image and outputting it as an edge image, position information of a point sequence output from the object detection means, and an edge image output from the edge detection means And a discriminating means for discriminating the type of an object existing in front of the vehicle, based on the position information of the point sequence output from the object detecting means. On the edge image output from the output means, the road surface height at the position where the object indicated by the point sequence detected by the object detection means exists is detected, and the road surface height on the detected edge image is used as a reference. Then, a height position corresponding to the height of the vehicle is obtained, and when there is an edge indicating an object existing in front of the vehicle above the height position corresponding to the height of the vehicle, the vehicle front An object type determination device characterized by determining an object existing in the vehicle as an object that does not hinder the traveling of the vehicle.
【請求項2】 前記判別手段は、前記物体検出手段によ
り検出された点列の位置情報の経時変化率と、前記エッ
ジ検出手段により検出された一対のエッジ間の距離の経
時変化率とをそれぞれ求め、これらが略等しい場合に、
前記物体検出手段により複数の検出点の点列として検出
された物体と、前記エッジ検出手段によりエッジが検出
された物体とが同一の物体であると判断することを特徴
とする請求項1に記載の物体種別判別装置。
2. The determining means respectively determines a temporal change rate of position information of a point sequence detected by the object detecting means and a temporal change rate of a distance between a pair of edges detected by the edge detecting means. And if these are approximately equal,
The object detected as a point sequence of a plurality of detection points by the object detection unit and the object whose edge is detected by the edge detection unit are determined to be the same object. Object classification device.
【請求項3】 前記判別手段は、前記物体検出手段によ
り検出された点列の長さをもとにこの点列で示される物
体の実際の幅を算出すると共に、前記エッジ検出手段に
より検出された一対のエッジ間の距離をもとにこのエッ
ジが検出された物体の実際の幅を算出し、これらが略等
しい場合に、前記物体検出手段により複数の検出点の点
列として検出された物体と、前記エッジ検出手段により
エッジが検出された物体とが同一の物体であると判断す
ることを特徴とする請求項1又は2に記載の物体種別判
別装置。
3. The discriminating means calculates the actual width of the object represented by the point sequence based on the length of the point sequence detected by the object detecting means, and detects the edge width by the edge detecting means. The actual width of the object whose edge is detected is calculated based on the distance between the pair of edges, and when these are substantially equal, the object detected by the object detection means as a point sequence of a plurality of detection points 3. The object type discriminating apparatus according to claim 1, wherein the object and the object whose edge is detected by the edge detecting unit are the same object.
【請求項4】 車両前方に存在する物体の種別を判別す
る物体種別判別方法であって、 前記車両前方に電磁波を走査させ、その反射電磁波をも
とに前記車両前方に存在する物体を複数の検出点の点列
として検出して、この検出した点列の前記車両からの距
離及び方位を示す位置情報を生成する物体検出ステップ
と、 前記車両前方の画像を撮像し、この画像から前記車両前
方に存在する物体のエッジを検出してエッジ画像を生成
するエッジ検出ステップと、 前記物体検出ステップで生成された点列の位置情報と、
前記エッジ検出ステップで生成されたエッジ画像とに基
づいて、前記車両前方に存在する物体の種別を判別する
物体種別判別ステップとを有し、 前記物体種別判別ステップでは、前記点列の位置情報を
もとに、前記エッジ画像上において、前記点列で示され
る物体が存在する位置での路面高さを検出し、この検出
したエッジ画像上の路面高さを基準にして前記車両の高
さに相当する高さ位置を求め、この車両の高さに相当す
る高さ位置よりも上方に、前記車両前方に存在する物体
を示すエッジがある場合に、前記車両前方に存在する物
体を車両の走行の妨げにならない物体と判別することを
特徴とする物体種別判別方法。
4. An object type determination method for determining the type of an object existing in front of the vehicle, wherein an electromagnetic wave is scanned in front of the vehicle, and a plurality of objects existing in front of the vehicle are detected based on the reflected electromagnetic waves. An object detection step of detecting as a point sequence of detection points and generating position information indicating the distance and azimuth of the detected point sequence from the vehicle; capturing an image in front of the vehicle; An edge detection step of detecting an edge of an object existing in to generate an edge image, position information of the point sequence generated in the object detection step,
An object type determination step of determining the type of an object existing in front of the vehicle based on the edge image generated in the edge detection step, and in the object type determination step, the position information of the point sequence is determined. Originally, on the edge image, the road surface height at the position where the object shown by the point sequence exists is detected, and the height of the vehicle is set on the basis of the road surface height on the detected edge image. When a corresponding height position is determined and an edge indicating an object existing in front of the vehicle is located above the height position corresponding to the height of the vehicle, the object existing in front of the vehicle is driven by the vehicle. An object type determination method characterized by determining an object that does not interfere with the above.
【請求項5】 前記物体種別判別ステップにおいて、前
記物体検出ステップで検出された点列の位置情報の経時
変化率と、前記エッジ検出ステップで検出された一対の
エッジ間の距離の経時変化率とをそれぞれ求め、これら
が略等しい場合に、前記物体検出ステップにおいて複数
の検出点の点列として検出された物体と、前記エッジ検
出ステップにおいてエッジが検出された物体とが同一の
物体であると判断することを特徴とする請求項4に記載
の物体種別判別方法。
5. In the object type determining step, a temporal change rate of position information of the point sequence detected in the object detecting step, and a temporal change rate of a distance between a pair of edges detected in the edge detecting step. Respectively, when these are substantially equal, it is determined that the object detected as a point sequence of a plurality of detection points in the object detection step and the object whose edge is detected in the edge detection step are the same object. The object type determination method according to claim 4, wherein:
【請求項6】 前記物体種別判別ステップにおいて、前
記物体検出ステップで検出された点列の長さをもとにこ
の点列で示される物体の実際の幅を算出すると共に、前
記エッジ検出ステップで検出された一対のエッジ間の距
離をもとにこのエッジが検出された物体の実際の幅を算
出し、これらが略等しい場合に、前記物体検出ステップ
において複数の検出点の点列として検出された物体と、
前記エッジ検出ステップにおいてエッジが検出された物
体とが同一の物体であると判断することを特徴とする請
求項4又は5に記載の物体種別判別方法。
6. In the object type determining step, the actual width of the object represented by the point sequence is calculated based on the length of the point sequence detected in the object detecting step, and in the edge detecting step. The actual width of the object in which this edge is detected is calculated based on the distance between the pair of detected edges, and when these are substantially equal, it is detected as a point sequence of a plurality of detection points in the object detection step. Object
The object type determination method according to claim 4 or 5, wherein the object in which the edge is detected in the edge detection step is determined to be the same object.
JP2001226248A 2001-07-26 2001-07-26 Object type discrimination device and object type discrimination method Expired - Fee Related JP3649166B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001226248A JP3649166B2 (en) 2001-07-26 2001-07-26 Object type discrimination device and object type discrimination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001226248A JP3649166B2 (en) 2001-07-26 2001-07-26 Object type discrimination device and object type discrimination method

Publications (2)

Publication Number Publication Date
JP2003044995A true JP2003044995A (en) 2003-02-14
JP3649166B2 JP3649166B2 (en) 2005-05-18

Family

ID=19059099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001226248A Expired - Fee Related JP3649166B2 (en) 2001-07-26 2001-07-26 Object type discrimination device and object type discrimination method

Country Status (1)

Country Link
JP (1) JP3649166B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173917A (en) * 2003-12-10 2005-06-30 Nissan Motor Co Ltd Device and method for detecting branching path
WO2006035510A1 (en) * 2004-09-29 2006-04-06 Hitachi, Ltd. External-field-of-vehicle recognizing apparatus
WO2007055215A1 (en) * 2005-11-09 2007-05-18 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2007288460A (en) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detecting method and object detecting device
WO2008028568A1 (en) * 2006-09-07 2008-03-13 Bayerische Motoren Werke Aktiengesellschaft Driver assistance system with object detection facility
US8483442B2 (en) 2007-02-16 2013-07-09 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
JP2014117989A (en) * 2012-12-14 2014-06-30 Nippon Soken Inc Parking assistance device
WO2018101247A1 (en) * 2016-11-29 2018-06-07 マクセル株式会社 Image recognition imaging apparatus
JP2018088092A (en) * 2016-11-28 2018-06-07 京セラ株式会社 Image processing apparatus, on-vehicle system, on-vehicle camera, moving body, and image processing method
JP2018156408A (en) * 2017-03-17 2018-10-04 マクセル株式会社 Image recognizing and capturing apparatus
US10107905B2 (en) 2007-01-25 2018-10-23 Magna Electronics Inc. Forward facing sensing system for vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0845000A (en) * 1994-07-28 1996-02-16 Fuji Heavy Ind Ltd Vehicle-to-vehicle distance controller
JPH0927100A (en) * 1995-07-12 1997-01-28 Yazaki Corp Method and device for recognizing proceding vehicel and read-end collision preventive device equipped there with for vehicle
JPH10187930A (en) * 1996-12-19 1998-07-21 Hitachi Ltd Running environment recognizing device
JPH1172562A (en) * 1997-08-28 1999-03-16 Nissan Motor Co Ltd Alarming device for distance between vehicles
JP2001116833A (en) * 1999-10-19 2001-04-27 Honda Motor Co Ltd Device for recognizing body

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0845000A (en) * 1994-07-28 1996-02-16 Fuji Heavy Ind Ltd Vehicle-to-vehicle distance controller
JPH0927100A (en) * 1995-07-12 1997-01-28 Yazaki Corp Method and device for recognizing proceding vehicel and read-end collision preventive device equipped there with for vehicle
JPH10187930A (en) * 1996-12-19 1998-07-21 Hitachi Ltd Running environment recognizing device
JPH1172562A (en) * 1997-08-28 1999-03-16 Nissan Motor Co Ltd Alarming device for distance between vehicles
JP2001116833A (en) * 1999-10-19 2001-04-27 Honda Motor Co Ltd Device for recognizing body

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173917A (en) * 2003-12-10 2005-06-30 Nissan Motor Co Ltd Device and method for detecting branching path
WO2006035510A1 (en) * 2004-09-29 2006-04-06 Hitachi, Ltd. External-field-of-vehicle recognizing apparatus
WO2007055215A1 (en) * 2005-11-09 2007-05-18 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2007132748A (en) * 2005-11-09 2007-05-31 Toyota Motor Corp Object detector
US7777669B2 (en) 2005-11-09 2010-08-17 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2007288460A (en) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detecting method and object detecting device
WO2008028568A1 (en) * 2006-09-07 2008-03-13 Bayerische Motoren Werke Aktiengesellschaft Driver assistance system with object detection facility
US8093999B2 (en) 2006-09-07 2012-01-10 Bayerische Motoren Werke Aktiengesellschaft Driver assistance system and method with object detection facility
US10107905B2 (en) 2007-01-25 2018-10-23 Magna Electronics Inc. Forward facing sensing system for vehicle
US10670713B2 (en) 2007-01-25 2020-06-02 Magna Electronics Inc. Forward sensing system for vehicle
US10877147B2 (en) 2007-01-25 2020-12-29 Magna Electronics Inc. Forward sensing system for vehicle
US11506782B2 (en) 2007-01-25 2022-11-22 Magna Electronics Inc. Vehicular forward-sensing system
US11815594B2 (en) 2007-01-25 2023-11-14 Magna Electronics Inc. Vehicular forward-sensing system
US8571265B2 (en) 2007-02-16 2013-10-29 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
US8625851B2 (en) 2007-02-16 2014-01-07 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
US8483442B2 (en) 2007-02-16 2013-07-09 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
JP2014117989A (en) * 2012-12-14 2014-06-30 Nippon Soken Inc Parking assistance device
JP2018088092A (en) * 2016-11-28 2018-06-07 京セラ株式会社 Image processing apparatus, on-vehicle system, on-vehicle camera, moving body, and image processing method
WO2018101247A1 (en) * 2016-11-29 2018-06-07 マクセル株式会社 Image recognition imaging apparatus
JP2018156408A (en) * 2017-03-17 2018-10-04 マクセル株式会社 Image recognizing and capturing apparatus

Also Published As

Publication number Publication date
JP3649166B2 (en) 2005-05-18

Similar Documents

Publication Publication Date Title
US5617085A (en) Method and apparatus for monitoring the surroundings of a vehicle and for detecting failure of the monitoring apparatus
US6823261B2 (en) Monitor system of vehicle outside and the method thereof
US6670912B2 (en) Method for detecting stationary object located above road
KR101395089B1 (en) System and method for detecting obstacle applying to vehicle
US6859730B2 (en) Monitor system of vehicle outside and method of monitoring same
US20010031068A1 (en) Target detection system using radar and image processing
US6834254B2 (en) Monitor system of vehicle outside and the method thereof
JP2008026997A (en) Pedestrian recognition device and pedestrian recognition method
JP2003084064A (en) Device and method for recognizing vehicle in front side
JP2002303671A (en) Object-classification discrimination apparatus
JP2006258497A (en) Object recognition apparatus for vehicle
JP3649163B2 (en) Object type discrimination device and object type discrimination method
JP5098563B2 (en) Object detection device
JP2003044995A (en) Device and method for discriminating body kind
JPH08156723A (en) Vehicle obstruction detecting device
JPH05297141A (en) On-vehicle object detecting device
JP3822417B2 (en) Vehicle periphery monitoring device
JP3465384B2 (en) Vehicle obstacle detection device and approach warning / avoidance device
JPH1063991A (en) Vehicle tracking device and traffic control system using the device
JP4878483B2 (en) Radar equipment
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
JP2003172780A (en) Recognition device and recognition method of preceding vehicle
JPH08315299A (en) Outside environment recognition device for vehicle
JP4074550B2 (en) Object recognition apparatus and recognition method
JPH10143797A (en) Preceding vehicle recognition device and method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050207

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees