JP2007114831A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2007114831A
JP2007114831A JP2005302694A JP2005302694A JP2007114831A JP 2007114831 A JP2007114831 A JP 2007114831A JP 2005302694 A JP2005302694 A JP 2005302694A JP 2005302694 A JP2005302694 A JP 2005302694A JP 2007114831 A JP2007114831 A JP 2007114831A
Authority
JP
Japan
Prior art keywords
reflector
reflected light
attribute
light amount
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005302694A
Other languages
Japanese (ja)
Inventor
Yoshiro Ito
芳郎 伊東
Yoshinobu Asokawa
佳誠 麻生川
Michihiro Nomura
光寛 野村
Takashi Iketani
崇 池谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2005302694A priority Critical patent/JP2007114831A/en
Publication of JP2007114831A publication Critical patent/JP2007114831A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection device capable of simplifying and speeding up individual identification of an object. <P>SOLUTION: A laser radar device 7 detects the object inside a detection area (S101), obtains a reflected light amount data (S103), and acquires a direction and a distance from its own vehicle 101 to the object (S103). The radar device 7 distinguishes an attribute of the detected object as a high reflection body or a low reflection body on the basis of the acquired reflected light amount data (S104). A CCD camera 4 images the detection area (S105), and an image data generation part 5 generates image data (S106). An image processing part 6 sets a matching processing area on the image data from attribute information and object detection information obtained by the radar device 7, and performs pattern matching by a sampling pattern according to each the attribute. The image processing part 6 performs the individual identification of the object on the basis of a matching result thereof (S107). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

物体を検出する装置、特に、検出した物体の属性を判別する物体検出装置に関するものである。   The present invention relates to an apparatus for detecting an object, and more particularly to an object detection apparatus for determining an attribute of a detected object.

従来、自動車に搭載され、自車前方の道路状況や他車等の物体を検出する物体検出装置として、レーザレーダ等のレーダ装置と、CCDカメラ等の撮像装置で取得した画像を画像処理する画像処理装置とを、備えたものが多く存在する(例えば、特許文献1、特許文献2参照)。このような物体検出装置の殆どは、レーダ装置で、各物体を検出するとともに、自車から各物体までの距離および自車に対する各物体の方位を含む物体の位置情報を検出する。そして、物体検出装置は、画像処理装置で、この位置情報を画像データ上にマッピングして画像データを解析することで、各物体の形状や種類等の個体識別を行っていた。
特開2003−252147公報 特開2003−217099公報
2. Description of the Related Art Conventionally, an image that is mounted on an automobile and that performs image processing on an image acquired by a radar device such as a laser radar and an imaging device such as a CCD camera as an object detection device that detects road conditions in front of the host vehicle or other vehicles. Many of them are equipped with processing devices (see, for example, Patent Document 1 and Patent Document 2). Most of such object detection devices detect each object with a radar device, and also detect position information of the object including a distance from the own vehicle to each object and an orientation of each object with respect to the own vehicle. Then, the object detection apparatus performs individual identification such as the shape and type of each object by mapping the position information onto the image data and analyzing the image data by the image processing apparatus.
JP 2003-252147 A JP 2003-217099 A

しかしながら、レーダ装置で得られた物体検知の情報を画像データにマッピングして、物体を個体識別する場合、次に示すような問題があった。
図13(A)は先行車のリフレクタにレーザ光が照射する場合の位置状態を示す模式図であり、(B)は人にレーザ光が照射する場合の物体の位置状態を示す模式図である。
図14(A)はレーザレーダにおける高反射体(リフレクタ=回帰反射体)の反射光量を方位方向単位で示した図であり、(B)はレーザレーダにおける低反射体(人等)の反射光量を方位方向単位で示した図であり、(C)は、(A)と(B)とを重ね合わせた図である。
However, when the object detection information obtained by the radar device is mapped to image data and an object is individually identified, there are the following problems.
FIG. 13A is a schematic diagram showing a position state when a reflector of a preceding vehicle is irradiated with laser light, and FIG. 13B is a schematic diagram showing a position state of an object when a person is irradiated with laser light. .
FIG. 14A is a diagram showing the amount of reflected light of a high reflector (reflector = regressive reflector) in laser radar in azimuth direction, and FIG. 14B is the amount of reflected light of a low reflector (such as a person) in laser radar. (C) is a diagram in which (A) and (B) are superimposed.

図13(A)に示すように、自車101から方位θAに先行車102のリフレクタ(高反射体)121Aが存在すると、図14(A)に示すように、反射光量は方位θAでピーク値P2Aが検知される。また、図13(B)に示すように、自車101から同じ方位θAに人103Aが存在すると、図14(B)に示すように、反射光量は方位θAでピーク値P3Aが検知される。   As shown in FIG. 13 (A), when the reflector (high reflector) 121A of the preceding vehicle 102 exists in the direction θA from the own vehicle 101, the reflected light amount has a peak value in the direction θA as shown in FIG. 14 (A). P2A is detected. Further, as shown in FIG. 13B, when a person 103A exists from the own vehicle 101 in the same direction θA, as shown in FIG. 14B, the peak value P3A is detected at the direction θA as shown in FIG. 14B.

同様に、図13(A)に示すように、自車101から方位θBに先行車102のリフレクタ(高反射体)121Bが存在すると、図14(A)に示すように、反射光量は方位θBでピーク値P2Bが検知される。また、図13(B)に示すように、自車101から同じ方位θBに人103Bが存在すると、図14(B)に示すように、反射光量は方位θBでピーク値P3Bが検知される。   Similarly, as shown in FIG. 13 (A), when the reflector (high reflector) 121B of the preceding vehicle 102 exists in the direction θB from the own vehicle 101, the reflected light amount is in the direction θB as shown in FIG. 14 (A). Thus, the peak value P2B is detected. Further, as shown in FIG. 13B, when a person 103B exists in the same direction θB from the own vehicle 101, the peak value P3B is detected at the direction θB as shown in FIG. 14B.

このように、先行車102のリフレクタ121Aと人103Aとが同じ方位θAに存在し、先行車102のリフレクタ121Bと人103Bとが同じ方位θBに存在する場合、図14(C)に示すように、それぞれの反射光量特性のピーク発生方位は一致する。   In this way, when the reflector 121A and the person 103A of the preceding vehicle 102 exist in the same direction θA, and the reflector 121B and the person 103B of the preceding vehicle 102 exist in the same direction θB, as shown in FIG. The peak generation directions of the reflected light quantity characteristics are the same.

また、レーザ光は直進性が強く、且つ、ビーム幅が広がり難いけれども、完全に広がらないことはない。このため、リフレクタ121A,Bや人103A,103Bが存在する位置でのビーム幅がリフレクタ121A、121B間の距離および人103A,103B間の距離よりも広いと、これらでレーザ光が反射されて、或る程度の反射受光量を得てしまう。
この結果、図14(C)に示すように、リフレクタ(高反射体)であっても人(低反射体)であっても、反射光量のレベルが異なるだけで、略同様の反射光量特性曲線が得られてしまう。
Further, the laser beam has a strong straightness and the beam width is difficult to spread, but it does not spread completely. For this reason, if the beam width at the position where the reflectors 121A and 121B and the persons 103A and 103B are present is wider than the distance between the reflectors 121A and 121B and the distance between the persons 103A and 103B, the laser beam is reflected by them. A certain amount of reflected light is obtained.
As a result, as shown in FIG. 14C, the reflected light amount characteristic curve is substantially the same regardless of whether the level of the reflected light amount is different between the reflector (high reflector) and the human (low reflector). Will be obtained.

このため、従来の物体検出装置は、反射光量のピークを検知すると、これに対応する方位θを算出し、画像データの該方位θに対応する領域に対して、各種のサンプリングパターンを適合させて、物体の個体識別を行っていた。   For this reason, when the conventional object detection device detects the peak of the reflected light amount, it calculates the azimuth θ corresponding to this, and adapts various sampling patterns to the region corresponding to the azimuth θ of the image data. The individual identification of the object was performed.

ところが、この方法では、ピーク値に対応する物体が、先行車のリフレクタであるのか人であるのかが判らないために、ピークを検出する毎に、記憶する全てのサンプリングパターンを適合して、最適なサンプリングパターンを抽出しなければならない。このため、処理が煩雑化するとともに、高速な物体の個体識別を行うことができない。   However, in this method, since it is not known whether the object corresponding to the peak value is a reflector of a preceding vehicle or a person, every time a peak is detected, all stored sampling patterns are adapted and optimized. A sampling pattern must be extracted. For this reason, the processing becomes complicated, and high-speed object identification cannot be performed.

したがって、この発明の目的は、物体の個体識別を簡略化するとともに高速化することができる物体検出装置を提供することにある。   Therefore, an object of the present invention is to provide an object detection apparatus that can simplify and speed up individual identification of an object.

この発明の物体検出装置は、検知領域内の物体の反射による反射強度と該物体の少なくとも距離とを取得する位置情報取得手段と、取得した距離と反射強度とに基づいて物体の属性を判別する属性判別手段と、を備えたことを特徴としている。   The object detection device of the present invention discriminates an attribute of an object based on position information acquisition means for acquiring the reflection intensity due to reflection of the object in the detection area and at least the distance of the object, and the acquired distance and reflection intensity. And an attribute discrimination means.

この構成では、位置情報取得手段は、検知領域内に存在する物体からの反射信号を受信して、少なくとも物体までの距離を検出するとともに、これに関連付けして反射信号強度を取得する。属性判別手段は、得られた物体の距離と反射信号強度とから、物体の属性を判別する。より具体的には、反射信号強度の判別閾値を設けて、複数の強度領域を設定する。   In this configuration, the position information acquisition unit receives the reflection signal from the object existing in the detection region, detects at least the distance to the object, and acquires the reflection signal intensity in association with this. The attribute discrimination means discriminates the attribute of the object from the obtained distance of the object and the reflected signal intensity. More specifically, a plurality of intensity regions are set by providing a discrimination threshold value for reflected signal intensity.

属性判別手段は、検出した距離に対して、得られた反射信号強度がいずれの強度領域に属するかを判別する。そして、属性判別手段は、この判別結果に基づいて、物体の属性、具体的には高反射体であるのか低反射体であるのかを出力する。   The attribute discrimination means discriminates which intensity region the obtained reflected signal intensity belongs to with respect to the detected distance. Then, the attribute discrimination means outputs the attribute of the object, specifically, whether it is a high reflector or a low reflector based on this discrimination result.

また、この発明の物体検出装置の属性判別手段は、反射強度の特性の光量データ、距離別光量データ、光量バラツキデータ、距離バラツキデータの少なくとも1つを用いて判別閾値を設定し、物体の属性を判別することを特徴としている。   Further, the attribute discrimination means of the object detection apparatus of the present invention sets a discrimination threshold using at least one of the light intensity data of the reflection intensity characteristic, the light intensity data by distance, the light intensity variation data, and the distance variation data, and the object attribute It is characterized by distinguishing.

この構成では、属性判別手段は、判別閾値として、具体的に、次に示す4つの閾値設定方法から、いずれかを選んで設定する。   In this configuration, the attribute discrimination means specifically selects and sets one of the following four threshold setting methods as the discrimination threshold.

(1)高反射体と低反射体とでは反射強度が2桁以上異なることを利用して、距離に依存することのない一定の反射光量で閾値を決定する。
(2)高反射体、低反射体ともに距離が長くなるほど反射強度が減衰することを参照して、距離に応じて変化させながら反射光量の閾値を決定する。
(3)低反射体が高反射体よりも反射強度のバラツキが大きいことを利用して、特定量の反射光量バラツキを閾値に設定する。
(4)低反射体が高反射体よりも検出される距離のバラツキが大きいことを利用して、特定量の検出距離バラツキを閾値に設定する。
これらの方法により、高反射体と低反射体とが明確に判別される。
(1) The threshold value is determined with a constant amount of reflected light that does not depend on the distance by utilizing the fact that the reflection intensity differs by two digits or more between the high reflector and the low reflector.
(2) With reference to the fact that the reflection intensity is attenuated as the distance becomes longer for both the high reflector and the low reflector, the threshold of the amount of reflected light is determined while changing according to the distance.
(3) Utilizing the fact that the variation in the reflection intensity of the low reflector is larger than that of the high reflector, a specific amount of reflected light amount variation is set as the threshold value.
(4) Utilizing the fact that the variation in the distance at which the low reflector is detected is greater than that of the high reflector, the detection distance variation of a specific amount is set as a threshold value.
By these methods, a high reflector and a low reflector are clearly distinguished.

また、この発明の物体検出装置は、検知領域を撮像して画像データを生成する撮像手段と、検知された物体を画像データに対応させて属性毎に異なる画像処理を行い、物体の個体識別を行う個体識別手段と、を備えたことを特徴としている。   In addition, the object detection device of the present invention performs imaging processing for capturing an image of a detection region and generating image data, and performs image processing different for each attribute in association with the detected object corresponding to the image data, thereby identifying an individual object. And an individual identification means for performing the identification.

この構成では、撮像手段は、位置情報取得手段が物体を検知する検知領域の画像データを取得する。個体識別手段は、検出した物体の位置を画像データ上にマッピングし、対応する属性毎に異なる画像処理領域およびサンプリングパターンを設定する。個体識別手段は、各画像処理領域に対して予め複数用意された個別のサンプリングパターンを用いて、設定した画像領域内で物体のパターンを同定する。そして、パターンが同定されると、このパターンに基づいて物体の種類、例えば、自動車、デリニエータ、人、物等を出力する。   In this configuration, the imaging unit acquires image data of a detection area where the position information acquisition unit detects an object. The individual identifying means maps the position of the detected object on the image data, and sets a different image processing region and sampling pattern for each corresponding attribute. The individual identifying means identifies the pattern of the object in the set image area using a plurality of individual sampling patterns prepared in advance for each image processing area. And if a pattern is identified, based on this pattern, the kind of object, for example, a car, a delineator, a person, an object, etc. will be output.

また、この発明の物体検出装置の個体識別手段は、特に回帰反射体を他の物体から識別することを特徴としている。この構成では、具体的に、先行車の後部に備え付けられたリフレクタである回帰反射体を、人等の他の物体から識別する。   In addition, the individual identifying means of the object detecting device of the present invention is characterized in that, in particular, the regressive reflector is identified from other objects. In this configuration, specifically, the retroreflector, which is a reflector provided at the rear part of the preceding vehicle, is identified from other objects such as a person.

また、この発明の物体検出装置は、少なくとも、検知領域内にレーザ光を照射してその反射光を利用するレーザレーダにより位置情報取得手段を実現することを特徴としている。この構成では、具体的に、少なくとも位置情報の取得装置としてレーザレーダを用いる。   In addition, the object detection apparatus of the present invention is characterized in that the position information acquisition means is realized by a laser radar that irradiates at least a detection region with laser light and uses the reflected light. In this configuration, specifically, a laser radar is used as at least a position information acquisition device.

この発明によれば、レーザレーダ等の位置情報取得手段で得られた物体の距離および反射光量から、まず物体を所定の属性単位で分類することで、後段の個体識別処理を容易且つ高速に実行することができる。そして、このように物体を属性に基づいて大まかに分別した後に、詳細に個体識別することで、それぞれの処理が簡素で高速であるので、従来の個体識別方法よりも、簡単且つ高速に物体の識別を行うことができる。   According to the present invention, the individual identification processing in the subsequent stage is easily and rapidly performed by first classifying the objects in predetermined attribute units from the distance and the amount of reflected light obtained by the position information acquisition means such as a laser radar. can do. Then, after roughly classifying the object based on the attribute in this way, the individual identification is performed in detail, so that each process is simple and high speed. Therefore, the object identification can be performed more easily and faster than the conventional individual identification method. Identification can be made.

本発明の第1の実施形態に係る物体検出装置について図1〜図8を参照して説明する。
図1(A)は本実施形態の物体検出装置の主要部を示すブロック図であり、図1(B)は本実施形態の物体検出装置を搭載した自動車の検知状態を示す概念図である。
本実施形態の物体検出装置は、レーダアンテナ1、レーダ信号処理部2、属性検出部3、CCD(ステレオ)カメラ4、画像データ生成部5、画像処理部6を備える。
An object detection apparatus according to a first embodiment of the present invention will be described with reference to FIGS.
FIG. 1A is a block diagram showing the main part of the object detection device of the present embodiment, and FIG. 1B is a conceptual diagram showing the detection state of an automobile equipped with the object detection device of the present embodiment.
The object detection apparatus of this embodiment includes a radar antenna 1, a radar signal processing unit 2, an attribute detection unit 3, a CCD (stereo) camera 4, an image data generation unit 5, and an image processing unit 6.

レーダアンテナ1は、自動車(自車)101の前方バンパ下端部付近に設置され、自車101の前方にレーザビームを送信し、検知領域内の物体にレーザビームが反射してなる反射光を受信する。レーダアンテナ1は、自車101に対して水平方向へ回動可能に設置されており、レーダアンテナ1を所定方位角範囲内で回動させることで、レーザビームを水平方向に走査する。   The radar antenna 1 is installed near the lower end of the front bumper of the automobile (own vehicle) 101, transmits a laser beam in front of the own vehicle 101, and receives reflected light formed by reflecting the laser beam to an object in the detection area. To do. The radar antenna 1 is installed so as to be rotatable in the horizontal direction with respect to the own vehicle 101, and scans the laser beam in the horizontal direction by rotating the radar antenna 1 within a predetermined azimuth angle range.

レーダ信号処理部2は、レーザビーム制御部と受信信号解析部とを備え、レーザビーム制御部で生成されたレーザ制御信号を、レーダアンテナ1に適宜与えることにより、所定方向へ送信するレーザビームを形成する。また、レーダ信号処理部2は、レーダアンテナ1から反射光を受信すると、該受信信号の強度すなわち反射光量を検出するとともに、方位方向を検出する。さらに、レーダ信号処理部2は、対応する受信信号の受信タイミングと送信レーザビームの送信タイミングとから、自車101と検知した物体との距離を測距する。これにより、水平方向の所定角範囲内の物体を検知する。   The radar signal processing unit 2 includes a laser beam control unit and a reception signal analysis unit, and appropriately applies a laser control signal generated by the laser beam control unit to the radar antenna 1 to thereby transmit a laser beam transmitted in a predetermined direction. Form. When the radar signal processing unit 2 receives reflected light from the radar antenna 1, the radar signal processing unit 2 detects the intensity of the received signal, that is, the amount of reflected light, and detects the azimuth direction. Further, the radar signal processing unit 2 measures the distance between the own vehicle 101 and the detected object from the reception timing of the corresponding reception signal and the transmission timing of the transmission laser beam. Thereby, an object within a predetermined angular range in the horizontal direction is detected.

属性検出部3は、レーダ信号処理部2から出力される物体検知結果を用いて、後述する方法で検知した物体の属性を検出する。ここで、属性は反射光量に基づいて設定されており、例えば、リフレクタ等の反射光量が大きい高反射体と、人等の反射光量が小さい低反射体と、からなる。
そして、これらレーダ信号処理部2および属性検出部3が、レーザレーダ装置7として一体化されている。
The attribute detection unit 3 uses the object detection result output from the radar signal processing unit 2 to detect the attribute of the object detected by a method described later. Here, the attribute is set based on the amount of reflected light, and includes, for example, a high reflector having a large amount of reflected light such as a reflector and a low reflector having a small amount of reflected light such as a person.
The radar signal processing unit 2 and the attribute detection unit 3 are integrated as a laser radar device 7.

CCDカメラ4は、自車101のフロントガラスの上端部付近に設置され、自車101の前方の道路状況を撮像する。
画像データ生成部5は、CCDカメラ4が撮像した映像を、所定タイミング毎に画像データ化して、画像処理部6に与える。
画像処理部6は、レーザレーダ装置7から与えられる物体検知情報、方位、距離、属性に基づいて、後述する方法で各物体の個体識別を行う。
そして、これら画像データ生成部5および画像処理部6が、画像処理装置8として一体化されている。
The CCD camera 4 is installed in the vicinity of the upper end portion of the windshield of the host vehicle 101 and images the road situation in front of the host vehicle 101.
The image data generation unit 5 converts the video captured by the CCD camera 4 into image data at every predetermined timing, and gives the image data to the image processing unit 6.
The image processing unit 6 performs individual identification of each object by a method described later based on the object detection information, direction, distance, and attribute given from the laser radar device 7.
The image data generation unit 5 and the image processing unit 6 are integrated as an image processing device 8.

次に、本実施形態の物体検知装置の処理を、図2〜図8を参照して具体的に説明する。
図2は本実施形態の物体検出装置の主要動作フローを示すフローチャートである。
図3は属性判別の処理フローを示すフローチャートであり、(A)は属性を高反射体と低反射体との2種類に判別する場合を示し、(B)は属性を高反射体、中反射体、および低反射体の3種類に判別する場合を示す。なお、ここで説明する高反射体は例えば自動車やデリニエータに備えられたリフレクタであり、中反射体および低反射体は例えば人や物(障害物)である。
図4は属性判別の反射光量閾値THの設定概念を説明する図であり、(A)は属性を高反射体と低反射体との2種類に判別する閾値TH0を示し、(B)は属性を高反射体、中反射体、および低反射体の3種類に判別する第1閾値TH1、第2閾値TH2を示す。なお、図4において、太実線が高反射体の反射光量特性曲線を示し、中実線が中反射体の反射光量特性曲線を示し、細実線が低反射体の反射光量特性曲線を示す。
Next, the process of the object detection device of the present embodiment will be specifically described with reference to FIGS.
FIG. 2 is a flowchart showing a main operation flow of the object detection apparatus of the present embodiment.
FIG. 3 is a flowchart showing a processing flow of attribute discrimination. FIG. 3A shows a case where the attribute is discriminated into two types, that is, a high reflector and a low reflector, and FIG. The case where it discriminate | determines in three types, a body and a low reflector is shown. The high reflector described here is, for example, a reflector provided in an automobile or a delineator, and the medium reflector and the low reflector are, for example, a person or an object (obstacle).
FIG. 4 is a diagram for explaining the concept of setting the reflected light amount threshold TH for attribute discrimination. FIG. 4A shows a threshold TH0 for discriminating the attribute into two types, a high reflector and a low reflector, and FIG. The first threshold value TH1 and the second threshold value TH2 are shown for discriminating into three types of high reflector, medium reflector and low reflector. In FIG. 4, the thick solid line indicates the reflected light amount characteristic curve of the high reflector, the solid solid line indicates the reflected light amount characteristic curve of the medium reflector, and the thin solid line indicates the reflected light amount characteristic curve of the low reflector.

前述のように、レーザレーダ装置7のレーダ信号処理部2は、自車101前方に対して水平方向に走査を行いながらレーザビームを送信し、物体からの反射光を受信することで、物体の検知を行う(S101)。この際、物体検知データには検知物体の方位、受信タイミング(受信時刻)が含まれる。同時に、レーダ信号処理部2は、反射光の強度、すなわち反射光量を検出し、物体検知データに与える(S102)。レーダ信号処理部2は、得られた物体検知情報から、検知物体の距離を算出して、方位、距離を含む物体位置データを算出する(S103)。なお、距離は、既知の通り、送信タイミングと受信タイミングとの時間差により算出される。   As described above, the radar signal processing unit 2 of the laser radar device 7 transmits a laser beam while scanning the front of the host vehicle 101 in the horizontal direction and receives reflected light from the object, thereby Detection is performed (S101). At this time, the object detection data includes the direction of the detected object and the reception timing (reception time). At the same time, the radar signal processing unit 2 detects the intensity of the reflected light, that is, the amount of reflected light, and gives it to the object detection data (S102). The radar signal processing unit 2 calculates the distance of the detected object from the obtained object detection information, and calculates object position data including the azimuth and the distance (S103). As is known, the distance is calculated from the time difference between the transmission timing and the reception timing.

レーザレーダ装置7の属性検出部3は、物体検知データおよび物体位置データを用いて、属性判別を行う(S104)。
(1)属性を高反射体と低反射体との2種類に判別する場合(図3(A)参照)
属性検出部3は、反射光量データを読み出し、予め設定しておいた反射光量閾値TH0と比較する。ここで、反射光量閾値TH0は、図4(A)に示すように、高反射体の反射光量の取り得る光量領域と低反射体の反射光量の取り得る光量領域とが、距離に関係なく重なり合わないことを利用して設定される。すなわち、高反射体の反射光量の最低値と低反射体の反射光量の最高値との間の適当な反射光量、例えば、これら高反射体の反射光量の最低値と低反射体の反射光量の最高値との中間値を、反射光量閾値TH0に設定する。
The attribute detection unit 3 of the laser radar device 7 performs attribute discrimination using the object detection data and the object position data (S104).
(1) When discriminating attributes into two types, a high reflector and a low reflector (see FIG. 3A)
The attribute detection unit 3 reads the reflected light amount data and compares it with a preset reflected light amount threshold TH0. Here, as shown in FIG. 4A, the reflected light amount threshold TH0 is such that the light amount region that can be taken by the high reflector and the light amount region that can be taken by the low reflector are overlapped regardless of the distance. It is set by using the incompatibility. That is, an appropriate amount of reflected light between the minimum value of the reflected light amount of the high reflector and the maximum value of the reflected light amount of the low reflector, for example, the minimum value of the reflected light amount of the high reflector and the reflected light amount of the low reflector An intermediate value from the maximum value is set to the reflected light amount threshold TH0.

そして、属性検出部3は、検知した反射光量データが閾値TH0よりも大きければ、検知物体を高反射体と判別する(S401→S402)。一方、属性検出部3は、検知した反射光量が閾値TH0よりも小さければ、検知物体を低反射体と判別する(S401→S403)。   Then, if the detected reflected light amount data is larger than the threshold value TH0, the attribute detection unit 3 determines the detected object as a high reflector (S401 → S402). On the other hand, if the detected amount of reflected light is smaller than the threshold value TH0, the attribute detection unit 3 determines that the detected object is a low reflector (S401 → S403).

(2)属性を高反射体、中反射体、低反射体の3種類に判別する場合(図3(B)参照)
属性検出部3は、反射光量データを読み出し、予め設定しておいた反射光量第1閾値TH1と比較する。ここで、反射光量第1閾値TH1は、図4(B)に示すように、高反射体の反射光量の取り得る光量領域と中反射体および低反射体の反射光量の取り得る光量領域とが、距離に関係なく重なり合わないことを利用して設定される。すなわち、高反射体の反射光量の最低値と中反射体および低反射体の反射光量の最高値との間の適当な反射光量、例えば、これら高反射体の反射光量の最低値と中反射体および低反射体の反射光量の最高値との中間値を、反射光量第1閾値TH1に設定する。
(2) When discriminating attributes into three types: high reflector, medium reflector, and low reflector (see FIG. 3B)
The attribute detection unit 3 reads the reflected light amount data and compares it with a preset reflected light amount first threshold TH1. Here, as shown in FIG. 4B, the reflected light amount first threshold value TH1 includes a light amount region that can be taken by the high reflector and a light amount region that can be taken by the middle reflector and the low reflector. It is set using the fact that it does not overlap regardless of the distance. That is, an appropriate amount of reflected light between the minimum value of the reflected light amount of the high reflector and the maximum value of the reflected light amount of the medium reflector and the low reflector, for example, the minimum value of the reflected light amount of these high reflectors and the medium reflector Further, an intermediate value between the maximum value of the reflected light amount of the low reflector and the reflected light amount first threshold value TH1 is set.

そして、属性検出部3は、検知した反射光量データが第1閾値TH1よりも大きければ、検知物体を高反射体と判別する(S404→S405)。一方、属性検出部3は、検知した反射光量が第1閾値TH1よりも小さければ、検知物体を高反射体ではないと判別し、次の判別処理を行う(S404→S406)。   And the attribute detection part 3 will discriminate | determine a detection object as a high reflector, if the detected reflected light amount data is larger than 1st threshold value TH1 (S404-> S405). On the other hand, if the detected amount of reflected light is smaller than the first threshold TH1, the attribute detection unit 3 determines that the detected object is not a high reflector, and performs the next determination process (S404 → S406).

次に、属性検出部3は、反射光量データを、予め設定しておいた反射光量第2閾値TH2と比較する。ここで、反射光量第2閾値TH2は、図4(B)に示すように、中反射体の反射光量の取り得る光量領域と低反射体の反射光量の取り得る光量領域とが、距離に関係なく重なり合わないことを利用して設定される。すなわち、中反射体の反射光量の最低値と低反射体の反射光量の最高値との間の適当な反射光量、例えば、これら中反射体の反射光量の最低値と低反射体の反射光量の最高値との中間値を、反射光量第2閾値TH2に設定する。   Next, the attribute detection unit 3 compares the reflected light amount data with a preset reflected light amount second threshold TH2. Here, as shown in FIG. 4B, the reflected light amount second threshold TH2 is related to the distance between the light amount region that can be taken by the intermediate reflector and the light amount region that can be taken by the low reflector. It is set using the fact that there is no overlap. That is, an appropriate amount of reflected light between the minimum value of the reflected light amount of the medium reflector and the maximum value of the reflected light amount of the low reflector, for example, the minimum value of the reflected light amount of these medium reflectors and the reflected light amount of the low reflector An intermediate value from the maximum value is set to the reflected light amount second threshold TH2.

そして、属性検出部3は、反射光量データが第2閾値TH2よりも大きければ、検知物体を中反射体と判別する(S406→S407)。一方、属性検出部3は、検知した反射光量が第2閾値TH2よりも小さければ、検知物体を低反射体と判別する(S406→S408)。   If the reflected light amount data is larger than the second threshold value TH2, the attribute detection unit 3 determines that the detected object is a medium reflector (S406 → S407). On the other hand, if the detected amount of reflected light is smaller than the second threshold TH2, the attribute detection unit 3 determines that the detected object is a low reflector (S406 → S408).

このような属性判別処理は、検知物体の全てに対して行われ、属性が決定すると、レーザレーダ装置7は、前記物体検知データ、物体位置データ、および属性データを関連付けした状態で、画像処理装置8に与える。   Such attribute discrimination processing is performed for all of the detected objects. When the attribute is determined, the laser radar device 7 associates the object detection data, the object position data, and the attribute data with the image processing device. Give to 8.

このようなレーザレーダ装置7の動作と並行して、CCDカメラ4は自車101前方を撮像し(S105)、画像処理装置8に出力する。画像処理装置8の画像データ生成部5は、所定タイミングで画像データを順次形成して画像処理部6に与える(S106)。この際、画像データには、画像データの生成タイミング、すなわち撮像タイミングが添付されている。   In parallel with the operation of the laser radar device 7, the CCD camera 4 images the front of the host vehicle 101 (S 105) and outputs it to the image processing device 8. The image data generation unit 5 of the image processing device 8 sequentially forms image data at a predetermined timing and gives the image data to the image processing unit 6 (S106). At this time, image data generation timing, that is, imaging timing is attached to the image data.

画像処理部6は、レーザレーダ装置7から与えられた物体検知データ、物体位置データ、および属性データと、画像データ生成部5から与えられた画像データとに基づいて、時刻を同期させながら物体の個体識別を行う(S107)。   The image processing unit 6 synchronizes the time based on the object detection data, object position data, and attribute data given from the laser radar device 7 and the image data given from the image data generation unit 5. Individual identification is performed (S107).

具体的に、まず、画像処理部6は、物体位置データに基づいて物体検知点を画像データ上にマッピングする。なお、以下のマッピング処理から開始される個体識別処理については、高反射体と低反射体との2種類に区別する場合を説明する。   Specifically, first, the image processing unit 6 maps the object detection points on the image data based on the object position data. In addition, about the individual identification process started from the following mapping processes, the case where it distinguishes into two types, a high reflector and a low reflector, is demonstrated.

(1)検知物体の属性が高反射体である場合
図5は検知物体の属性が高反射体である場合の個体識別処理を説明するフローチャートである。
図6は検知物体の属性が高反射体である場合の個体識別処理を説明する図である。図6(A)はマッチング領域設定状態を示し、(B)はマッチング領域のみを抽出した状態を示し、(C),(D)はマッチングに用いるサンプリングパターンを示す。
(1) When the attribute of the detected object is a high reflector FIG. 5 is a flowchart for explaining individual identification processing when the attribute of the detected object is a high reflector.
FIG. 6 is a diagram for explaining individual identification processing when the attribute of the detected object is a high reflector. 6A shows a matching area setting state, FIG. 6B shows a state where only the matching area is extracted, and FIGS. 6C and 6D show sampling patterns used for matching.

画像処理部6は、このマッピングした物体検知点に対して、対応する属性データからマッチング処理領域を設定する(S701)。具体的に、画像処理部6は、検知物体が高反射体であることを識別すると、所定間隔で現れる二つの物体検知点を含むマッチング処理領域12を設定する。   The image processing unit 6 sets a matching processing region from the corresponding attribute data for the mapped object detection point (S701). Specifically, when the image processing unit 6 identifies that the detected object is a high reflector, the image processing unit 6 sets a matching processing region 12 including two object detection points that appear at predetermined intervals.

この際、高反射体は先行車後部に設置されたリフレクタや、道路脇や道路面に設置されたデリニエータであるので、前記マッチング領域を自動車の形状に則した矩形状に設定する。具体的には、マッチング領域12は、前記二つの物体検知点が幅方向の両端に位置するように幅を設定し、別途予め設定した長さで高さを設定する。ここで、この設定される高さは、例えば、自車からの距離に基づき自車から前方に見える一般的な自動車の寸法を予め算出しておき、この算出値から設定される。   At this time, since the high reflector is a reflector installed at the rear part of the preceding vehicle or a delineator installed on the side of the road or on the road surface, the matching area is set to a rectangular shape according to the shape of the automobile. Specifically, the matching region 12 is set to have a width so that the two object detection points are positioned at both ends in the width direction, and set to a height that is set separately in advance. Here, the set height is set from the calculated value obtained by, for example, calculating in advance a size of a general automobile that can be seen forward from the own vehicle based on the distance from the own vehicle.

次に、画像処理部6は、抽出したマッチング領域12の画像データに対して、コントラストによる外形線抽出等の画像処理を行い、物体検知点を含む物体の形状を検出する(S702)。   Next, the image processing unit 6 performs image processing such as outline extraction based on contrast on the extracted image data of the matching region 12 to detect the shape of the object including the object detection point (S702).

また、画像処理部6は、図6(C)や(D)に示すようなサンプリングパターン201〜203を予めメモリに記憶しており、順次これらサンプリングパターン201〜203を読み出す(S703)。図6(C),(D)に示すように、高反射体の物体に対するサンプリングパターン201〜203は、マッチング領域12と同様に、自動車の形状に則して設定されており、予め各種自動車の背面形状(後方から見た形状)で設定されている。   The image processing unit 6 stores sampling patterns 201 to 203 as shown in FIGS. 6C and 6D in the memory in advance, and sequentially reads these sampling patterns 201 to 203 (S703). As shown in FIGS. 6C and 6D, the sampling patterns 201 to 203 for the high-reflector object are set in accordance with the shape of the automobile in the same manner as the matching area 12, and are previously set for various automobiles. It is set in the back shape (the shape seen from the back).

なお、画像処理部6は、サンプリングパターンを読み出して利用する場合、物体に対して得られた距離情報に基づいて記憶されているサンプリングパターンを拡大または縮小する。例えば、画像サイズがmドット×nドットのサンプリングパターンを用いる場合で、基準距離(サンプリングパターンを設定した時点で利用した距離)L0に対して検知距離がLであれば、パターンマッチングに利用する画像サイズは、m×(L0/L)ドット×n×(L0/L)ドットに変換する。   Note that when the sampling pattern is read and used, the image processing unit 6 enlarges or reduces the stored sampling pattern based on the distance information obtained for the object. For example, if a sampling pattern with an image size of m dots × n dots is used and the detection distance is L with respect to the reference distance (the distance used when the sampling pattern is set) L0, the image used for pattern matching The size is converted into m × (L0 / L) dots × n × (L0 / L) dots.

次に、画像処理部6は、検出した物体形状と各サンプリングパターン201〜203とを用いて、パターンマッチング処理を行い、類似パターンを検索する(S704)。画像処理部6は、検出した物体形状とサンプリングパターンとの類似性を既知の方法で検証し、予め設定した基準以上に類似するパターンが存在すれば、このサンプリングパターンを適応する。そして、画像処理部6は、この類似パターンに対応する物体の種類を読み出し、物体の種類を限定する。例えば、図6に示す場合であれば、サンプリングパターンが自動車の形状であるので、類似パターンが存在すれば、検知物体は、この類似パターンに対応した自動車であると判断する(S705→S706)。ここで、各種自動車のサンプリングパターン、例えば、普通自動車、軽トラック、および大型トラック等をそれぞれ個別に設定しておけば、車種をも検出することができる。   Next, the image processing unit 6 performs a pattern matching process using the detected object shape and each of the sampling patterns 201 to 203 to search for a similar pattern (S704). The image processing unit 6 verifies the similarity between the detected object shape and the sampling pattern by a known method, and adapts this sampling pattern if there is a pattern similar to a preset reference or more. Then, the image processing unit 6 reads the object type corresponding to the similar pattern and limits the object type. For example, in the case shown in FIG. 6, since the sampling pattern is the shape of an automobile, if there is a similar pattern, it is determined that the detected object is an automobile corresponding to the similar pattern (S705 → S706). Here, if the sampling patterns of various automobiles, for example, ordinary automobiles, light trucks, large trucks, etc. are individually set, the vehicle type can also be detected.

さらに、画像処理部6は選択したサンプリングパターンを用いて、物体のサイズを検出する。例えば、決定した類似パターンが画素数にしてm1ドット×n1ドットであり、当該物体の距離がLであれば、レーザレーダの焦点距離をfとして画像データの画素ピッチ距離をpとすると、M(=m1×p×L1/f)×N(=n1×p×L1/f)と算出することができる。   Further, the image processing unit 6 detects the size of the object using the selected sampling pattern. For example, if the determined similar pattern is m1 dots × n1 dots in terms of the number of pixels and the distance of the object is L, if the focal length of the laser radar is f and the pixel pitch distance of the image data is p, then M ( = M1 * p * L1 / f) * N (= n1 * p * L1 / f).

ところで、類似となるサンプリングパターンが複数存在する場合には、画像処理部6は、類似するサンプリングパターンの中から最も類似性の強いサンプリングパターンを選択すればよい。   By the way, when there are a plurality of similar sampling patterns, the image processing unit 6 may select the sampling pattern having the strongest similarity from the similar sampling patterns.

一方、画像処理部6は、全てのサンプリングパターンと検知物体に基づく形状との類似性が、前記所定の基準に達しなければ、検知された高反射体が自動車のリフレクタではないと判断する(S705→S707)。そして、例えば、このように自動車のリフレクタとして判断されない高反射体が所定方向に連続することを検知すると、これらがデリニエータであると判断する。
そして、画像処理部6は、このように判断した物体の検出結果を、物体検出装置が搭載される上位システムに出力する(S708)。
On the other hand, if the similarity between all the sampling patterns and the shape based on the detected object does not reach the predetermined reference, the image processing unit 6 determines that the detected high reflector is not a vehicle reflector (S705). → S707). For example, when it is detected that high reflectors that are not determined as vehicle reflectors continue in a predetermined direction, they are determined to be delineators.
Then, the image processing unit 6 outputs the detection result of the object determined in this way to a higher system on which the object detection device is mounted (S708).

(2)検知物体の属性が低反射体である場合
図7は検知物体の属性が低反射体である場合の個体識別処理を説明するフローチャートである。
図8は検知物体の属性が低反射体である場合の個体識別処理を説明する図である。図8(A)はマッチング領域設定状態を示し、(B)はマッチング領域のみを抽出した状態を示し、(C),(D)はマッチングに用いるサンプリングパターンを示す。
(2) When the attribute of the detected object is a low reflector FIG. 7 is a flowchart for explaining individual identification processing when the attribute of the detected object is a low reflector.
FIG. 8 is a diagram for explaining individual identification processing when the attribute of the detected object is a low reflector. 8A shows a matching area setting state, FIG. 8B shows a state where only the matching area is extracted, and FIGS. 8C and 9D show sampling patterns used for matching.

画像処理部6は、このマッピングした物体検知点に対して、対応する属性データからマッチング処理領域を設定する(S711)。具体的に、画像処理部6は、検知物体が低反射体であることを識別すると、それぞれの物体検知点に対して各物体検知点を含むマッチング処理領域12A,12Bを設定する。   The image processing unit 6 sets a matching processing area from the corresponding attribute data for the mapped object detection point (S711). Specifically, when the image processing unit 6 identifies that the detected object is a low-reflector, the image processing unit 6 sets matching processing regions 12A and 12B including each object detection point for each object detection point.

この際、低反射体は道路上で停止したり移動する人であったり、道路上に載置された物(障害物や荷物等)であるので、前記マッチング領域を人の形状に則して設定する。具体的には、マッチング領域12A,12Bは、それぞれ物体検知点を幅と高さ方向の中心にして、人の輪郭に則した幅および高さの矩形領域を設定する。ここで、この設定される幅および高さは、例えば、自車からの距離に基づき自車から前方に見える一般的な人の寸法を予め算出しておき、この算出値から設定される。   At this time, since the low reflector is a person who stops or moves on the road, or is an object (obstacle, luggage, etc.) placed on the road, the matching area is determined according to the shape of the person. Set. Specifically, the matching areas 12A and 12B are set to rectangular areas having a width and a height in accordance with the outline of the person with the object detection point as the center in the width and height directions. Here, the set width and height are set from the calculated values obtained by, for example, calculating in advance the dimensions of a general person who can see forward from the own vehicle based on the distance from the own vehicle.

次に、画像処理部6は、抽出したマッチング領域12A,12Bの画像データに対して、コントラストによる外形線抽出等の画像処理を行い、物体検知点を含む物体の形状を検出する(S712)。   Next, the image processing unit 6 performs image processing such as outline extraction by contrast on the extracted image data of the matching regions 12A and 12B, and detects the shape of the object including the object detection point (S712).

また、画像処理部6は、図8(C)や(D)に示すようなサンプリングパターン301〜303を予めメモリに記憶しており、順次これらサンプリングパターン301〜303を読み出す(S713)。図8(C),(D)に示すように、低反射体の物体に対するサンプリングパターン301〜303は、マッチング領域12A,12Bと同様に人の形状に則して設定されており、予め各種人の行動パターンの背面形状(後方から見た形状)で設定されている。   Further, the image processing unit 6 stores sampling patterns 301 to 303 as shown in FIGS. 8C and 8D in a memory in advance, and sequentially reads these sampling patterns 301 to 303 (S713). As shown in FIGS. 8C and 8D, the sampling patterns 301 to 303 for the low-reflector object are set in accordance with the shape of the person in the same way as the matching areas 12A and 12B, and various people are previously set. It is set by the back shape (shape seen from the back) of the action pattern.

なお、この場合も、画像処理部6は、サンプリングパターンを読み出して利用する場合、物体に対して得られた距離情報に基づいて記憶されているサンプリングパターンを拡大または縮小する。   Also in this case, when the image processing unit 6 reads and uses the sampling pattern, the image processing unit 6 enlarges or reduces the stored sampling pattern based on the distance information obtained for the object.

次に、画像処理部6は、検出した物体形状と各サンプリングパターン301〜303とを用いて、パターンマッチング処理を行い、類似パターンを検索する(S714)。そして、画像処理部6は、検出した物体形状とサンプリングパターンとの類似性を既知の方法で検証し、予め設定した基準以上に類似するパターンが存在すれば、このサンプリングパターンを適応する。そして、画像処理部6は、この類似パターンに対応する物体の種類を読み出し、物体の種類を限定する。例えば、図8に示す場合であれば、サンプリングパターンが人の形状であるので、類似パターンが存在すれば、検知物体は、この類似パターンに対応した人であると判断する(S715→S716)。なお、ここで、類似となるサンプリングパターンが複数存在する場合には、これらの中から最も類似のサンプリングパターンを選択する。   Next, the image processing unit 6 performs a pattern matching process using the detected object shape and each of the sampling patterns 301 to 303 to search for a similar pattern (S714). Then, the image processing unit 6 verifies the similarity between the detected object shape and the sampling pattern by a known method, and adapts this sampling pattern if there is a pattern that is more than a preset reference. Then, the image processing unit 6 reads the object type corresponding to the similar pattern and limits the object type. For example, in the case shown in FIG. 8, since the sampling pattern has a human shape, if a similar pattern exists, it is determined that the detected object is a person corresponding to this similar pattern (S715 → S716). Here, when there are a plurality of similar sampling patterns, the most similar sampling pattern is selected from these.

一方、画像処理部6は、全てのサンプリングパターン301〜303と検知物体に基づく形状との類似性が、前記所定の基準に達しなければ、検知された低反射体が人ではないと判断する(S715→S717)。そして、例えば、このように人として判断されない低反射体は、例えば、道路上に存在する障害物であると判断する。   On the other hand, if the similarity between all the sampling patterns 301 to 303 and the shape based on the detected object does not reach the predetermined reference, the image processing unit 6 determines that the detected low reflector is not a person ( S715 → S717). For example, a low reflector that is not determined as a person in this way is determined to be an obstacle present on a road, for example.

そして、画像処理部6は、このように判断した物体の検出結果を、物体検出装置が搭載される上位システムに出力する(S718)。   Then, the image processing unit 6 outputs the detection result of the object determined in this way to a higher system on which the object detection device is mounted (S718).

なお、このような人の判別については、前述のように中反射体と低反射体とを判別し、例えば、中反射体として大人のサンプリングパターンを用い、低反射体として子供のサンプリングパターンを用いるようにして、個体識別処理を行ってもよい。   As for the discrimination of such a person, as described above, the middle reflector and the low reflector are discriminated. For example, an adult sampling pattern is used as the middle reflector, and a child sampling pattern is used as the low reflector. In this way, the individual identification process may be performed.

このような処理を行うことで、物体の属性(本実施形態であれば反射強度)に準じて、物体を所定の種類に分別しておき、各属性で固有のマッチング処理を行って、物体の個体識別を行う。これにより、属性毎にマッチング処理領域を一意に設定することができ、且つ、属性毎に個別のマッチングサンプルパターンを読み出せばよいので、マッチング処理を簡素化且つ高速化することができる。   By performing such processing, according to the attribute of the object (in this embodiment, the reflection intensity), the object is classified into a predetermined type, and a unique matching process is performed for each attribute, so that the individual object Identify. As a result, the matching processing area can be uniquely set for each attribute, and an individual matching sample pattern can be read for each attribute, so that the matching processing can be simplified and speeded up.

次に、第2の実施形態の係る物体検出装置について、図9、図10を参照して説明する。
第1の実施形態では、属性判別の際に、距離に依存することのない閾値を用いた例を示したが、本実施形態の物体検出装置は、距離に応じて設定された閾値を用いたものである。
図9は属性判別の処理フローを示すフローチャートであり、(A)は属性と高反射体と低反射体との2種類に判別する場合を示し、(B)は属性を高反射体、中反射体、および低反射体の3種類に判別する場合を示す。
図10は属性判別の反射光量閾値THnの設定概念を説明する図であり、(A)は属性と高反射体と低反射体との2種類に判別する閾値THn0を示し、(B)は属性を高反射体、中反射体、および低反射体の3種類に判別する第1閾値THn1、第2閾値THn2を示す。なお、図10において、太実線が高反射体の反射光量特性曲線を示し、中実線が中反射体の反射光量特性曲線を示し、細実線が低反射体の反射光量特性曲線を示す。
Next, an object detection apparatus according to a second embodiment will be described with reference to FIGS.
In the first embodiment, an example in which a threshold value that does not depend on the distance is used for attribute determination has been described. However, the object detection device of the present embodiment uses a threshold value that is set according to the distance. Is.
FIG. 9 is a flowchart showing a process flow of attribute discrimination. FIG. 9A shows a case where the attribute is discriminated into two types, that is, a high reflector and a low reflector, and FIG. The case where it discriminate | determines in three types, a body and a low reflector is shown.
FIG. 10 is a diagram for explaining the concept of setting the reflected light amount threshold THn for attribute discrimination. FIG. 10A shows the threshold THn0 for discriminating into two types of attribute, high reflector, and low reflector, and FIG. The first threshold value THn1 and the second threshold value THn2 are shown for discriminating into three types of high reflectors, medium reflectors, and low reflectors. In FIG. 10, the thick solid line shows the reflected light amount characteristic curve of the high reflector, the solid solid line shows the reflected light amount characteristic curve of the medium reflector, and the thin solid line shows the reflected light amount characteristic curve of the low reflector.

(1)属性を高反射体と低反射体との2種類に判別する場合(図9(A)参照)
属性検出部3は、物体検知データを受け付けると、距離と反射光量データとを読み出し、該当する距離における反射光量閾値THn0と比較する(S411→S412→S413)。ここで、反射光量閾値THn0は、図10(A)に示すように、高反射体の反射光量と低反射体の反射光量とが、どの距離を選択しても非常にかけ離れていることを利用して予め設定される。すなわち、各距離における高反射体の反射光量と低反射体の反射光量との間の適当な反射光量、例えば、該当する距離における高反射体の反射光量と低反射体の反射光量との中間値を、反射光量閾値THn0に設定する。
(1) When discriminating the attribute into two types, a high reflector and a low reflector (see FIG. 9A)
Upon receiving the object detection data, the attribute detection unit 3 reads the distance and the reflected light amount data, and compares it with the reflected light amount threshold THn0 at the corresponding distance (S411 → S412 → S413). Here, as shown in FIG. 10A, the reflected light amount threshold THn0 uses that the reflected light amount of the high reflector and the reflected light amount of the low reflector are very far apart regardless of the distance selected. To be preset. That is, an appropriate reflected light amount between the reflected light amount of the high reflector and the reflected light amount of the low reflector at each distance, for example, an intermediate value between the reflected light amount of the high reflector and the reflected light amount of the low reflector at the corresponding distance Is set to the reflected light amount threshold THn0.

属性検出部3は、検知した反射光量データが対応する距離での閾値THn0よりも大きければ、検知物体を高反射体と判別する(S413→S414)。一方、属性検出部3は、検知した反射光量が対応する距離での閾値THn0よりも小さければ、検知物体を低反射体と判別する(S413→S415)。   If the detected reflected light amount data is larger than the threshold THn0 at the corresponding distance, the attribute detection unit 3 determines that the detected object is a high reflector (S413 → S414). On the other hand, if the detected amount of reflected light is smaller than the threshold value THn0 at the corresponding distance, the attribute detection unit 3 determines the detected object as a low reflector (S413 → S415).

(2)属性を高反射体、中反射体、低反射体の3種類に判別する場合(図9(B)参照)
属性検出部3は、物体検知データを受け付けると、距離と反射光量データとを読み出し、該当する距離における反射光量第1閾値THn1と比較する(S411→S412→S416)。ここで、反射光量第1閾値TH1は、図10(B)に示すように、高反射体の反射光量と中反射体の反射光量とが、どの距離を選択しても非常にかけ離れていることを利用して予め設定される。すなわち、各距離における高反射体の反射光量と中反射体の反射光量との間の適当な反射光量、例えば、これら高反射体の反射光量の最低値と中反射体の反射光量の最高値との中間値を、反射光量第1閾値THn1に設定する。
(2) When distinguishing three types of attributes: high reflector, medium reflector, and low reflector (see FIG. 9B)
Upon receiving the object detection data, the attribute detection unit 3 reads the distance and the reflected light amount data, and compares it with the reflected light amount first threshold THn1 at the corresponding distance (S411 → S412 → S416). Here, as shown in FIG. 10 (B), the reflected light amount first threshold value TH1 is very different from the reflected light amount of the high reflector and the reflected light amount of the middle reflector regardless of the distance selected. Is set in advance using. That is, an appropriate amount of reflected light between the amount of reflected light of the high reflector and the amount of reflected light of the middle reflector at each distance, for example, the minimum value of the reflected light amount of these high reflectors and the maximum value of the reflected light amount of the middle reflector Is set to the reflected light amount first threshold value THn1.

属性検出部3は、検知した反射光量データが第1閾値THn1よりも大きければ、検知物体を高反射体と判別する(S416→S414)。一方、属性検出部3は、検知した反射光量が第1閾値THn1よりも小さければ、検知物体を高反射体ではないと判別し、次の判別処理を行う(S416→S417)。   If the detected reflected light amount data is larger than the first threshold value THn1, the attribute detection unit 3 determines that the detected object is a high reflector (S416 → S414). On the other hand, if the detected amount of reflected light is smaller than the first threshold THn1, the attribute detection unit 3 determines that the detected object is not a high reflector, and performs the next determination process (S416 → S417).

次に、属性検出部3は、反射光量データを、予め設定しておいた反射光量第2閾値THn2と比較する。ここで、反射光量第2閾値THn2は、図10(B)に示すように、中反射体の反射光量と低反射体の反射光量とが、どの距離を選択しても非常にかけ離れていることを利用して予め設定される。すなわち、各距離における中反射体の反射光量と低反射体の反射光量との間の適当な反射光量、例えば、これら中反射体の反射光量と低反射体の反射光量との中間値を、反射光量第2閾値THn2に設定する。   Next, the attribute detection unit 3 compares the reflected light amount data with a reflected light amount second threshold THn2 set in advance. Here, as shown in FIG. 10B, the reflected light amount second threshold value THn2 is very different from the distance between the reflected light amount of the medium reflector and the reflected light amount of the low reflector. Is set in advance using. That is, an appropriate amount of reflected light between the amount of reflected light of the medium reflector and the amount of reflected light of the low reflector at each distance, for example, an intermediate value between the amount of reflected light of the medium reflector and the amount of reflected light of the low reflector is reflected. The light amount second threshold value THn2 is set.

属性検出部3は、反射光量データが対応する距離での第2閾値THn2よりも大きければ、検知物体を中反射体と判別する(S417→S418)。一方、属性検出部3は、検知した反射光量が対応する距離での第2閾値THn2よりも小さければ、検知物体を低反射体と判別する(S417→S419)。   If the reflected light amount data is greater than the second threshold value THn2 at the corresponding distance, the attribute detection unit 3 determines that the detected object is a middle reflector (S417 → S418). On the other hand, if the detected amount of reflected light is smaller than the second threshold THn2 at the corresponding distance, the attribute detection unit 3 determines that the detected object is a low reflector (S417 → S419).

このような処理方法であっても、第1の実施形態と同様の効果を奏することができる。さらに、本実施形態の処理方法を用いることで、高反射体の反射光量の最低値(観測し得る最遠方からの反射光量)が低反射体や中反射体の反射光量の最高値(観測し得る最近傍の反射光量)よりも小さくなるような場合であっても、確実に高反射体と中反射体または低反射体とを判別することができる。   Even with such a processing method, the same effects as those of the first embodiment can be obtained. Furthermore, by using the processing method of the present embodiment, the lowest value of the reflected light amount of the high reflector (the amount of reflected light from the farthest possible observation) is the highest value of the reflected light amount of the low reflector and the middle reflector (observed). Even if it is smaller than the nearest reflected light amount to be obtained, it is possible to reliably discriminate between a high reflector and a medium reflector or a low reflector.

次に、第3の実施形態に係る物体検出装置について、図11、図12を参照して説明する。
第1、第2の実施形態では、属性判別の際に、光量を判別の基準にした例を示したが、本実施形態の物体検出装置は、距離や光量のバラツキに応じて設定された閾値を用いたものである。なお、本実施形態で示す属性判別フローは、第1の実施形態に示したように、高反射体と非高反射体とに属性判別をした後に、非高反射体を、中反射体と低反射体とに属性判別する場合を示す。
図11は属性判別の処理フローを示すフローチャートであり、(A)は属性と高反射体と低反射体との2種類に判別する場合を示し、(B)は属性を高反射体、中反射体、および低反射体の3種類に判別する場合を示す。
図12(A)は属性判別の反射光量バラツキ閾値σL0の設定概念を説明する図であり、(B)は属性判別の距離バラツキ閾値σD0の設定概念を説明する図である。なお、図12において、中実線が中反射体のバラツキ特性曲線を示し、細実線が低反射体のバラツキ特性曲線を示す。
Next, an object detection apparatus according to a third embodiment will be described with reference to FIGS.
In the first and second embodiments, the example in which the light quantity is used as a reference for the attribute determination is shown. However, the object detection apparatus according to the present embodiment has a threshold value set according to the variation in the distance and the light quantity. Is used. As shown in the first embodiment, the attribute determination flow shown in the present embodiment is performed after the attribute determination is performed on the high reflector and the non-high reflector, and then the non-high reflector is changed from the medium reflector to the low reflector. The case where the attribute is discriminated from the reflector is shown.
FIG. 11 is a flowchart showing a process flow of attribute discrimination. FIG. 11A shows a case of discriminating into two types of an attribute, a high reflector, and a low reflector, and FIG. The case where it discriminate | determines in three types, a body and a low reflector is shown.
12A is a diagram for explaining the setting concept of the reflected light amount variation threshold value σL0 for attribute discrimination, and FIG. 12B is a diagram for explaining the setting concept of the distance variation threshold value σD0 for attribute discrimination. In FIG. 12, a solid line indicates a variation characteristic curve of the medium reflector, and a thin solid line indicates a variation characteristic curve of the low reflector.

中反射体と低反射体とは、前述の例に示したように、ともに人や物であることが多い。このため、中反射体と低反射体とで反射光量の差が大きくなかったり、同じ物体に対して測定回毎に得られる反射光量のバラツキが大きくなる傾向がある。さらに、反射光量が低いことで、算出される距離にもバラツキが生じる。しかしながら、中反射体と低反射体とを比較すれば、低反射体の方が、反射光量のバラツキ、距離のバラツキとも大きくなる傾向にあるので、本実施形態では、この特性を利用して、中反射体と低反射体とを判別する。   The medium reflector and the low reflector are often people or objects as shown in the above example. For this reason, there is a tendency that the difference in the amount of reflected light between the medium reflector and the low reflector is not large, or that the amount of reflected light obtained for each measurement on the same object varies greatly. Furthermore, since the amount of reflected light is low, the calculated distance also varies. However, when comparing the medium reflector and the low reflector, the low reflector tends to increase both in the amount of reflected light and in the distance, so in this embodiment, using this characteristic, Discriminate between medium reflector and low reflector.

(1)反射光量バラツキにより中反射体と低反射体とを判別する場合(図11(A)参照)
属性検出部3は、反射光量データを取得すると、方位方向を確認して、同じ方位方向の反射光量データを所定時間(複数走査分)に亘って蓄積する(S421)。属性検出部3は、これら反射光量データを用いて、反射光量バラツキデータσLを算出し、予め設定しておいた反射光量バラツキ閾値σL0と比較する(S422→S423)。ここで、反射光量バラツキ閾値σL0は、図12(A)に示すように、中反射体の反射光量バラツキの取り得るデータ領域と低反射体の反射光量バラツキの取り得るデータ領域とが、距離に関係なく重なり合わないことを利用して設定する。すなわち、低反射体の反射光量バラツキの最低値と中反射体の反射光量バラツキの最高値との間の適当な反射光量バラツキ、例えば、これら低反射体の反射光量バラツキの最低値と中反射体の反射光量バラツキの最高値との中間値を、反射光量バラツキ閾値σL0に設定する。
(1) When discriminating between a medium reflector and a low reflector based on variations in the amount of reflected light (see FIG. 11A)
When acquiring the reflected light amount data, the attribute detecting unit 3 confirms the azimuth direction and accumulates the reflected light amount data in the same azimuth direction for a predetermined time (for a plurality of scans) (S421). The attribute detection unit 3 calculates the reflected light amount variation data σL using these reflected light amount data, and compares it with a preset reflected light amount variation threshold σL0 (S422 → S423). Here, as shown in FIG. 12A, the reflected light amount variation threshold σL0 is a distance between the data region where the reflected light amount variation of the medium reflector can take and the data region where the reflected light amount variation of the low reflector can take. Regardless of whether they overlap, set. That is, an appropriate reflected light amount variation between the minimum value of the reflected light amount variation of the low reflector and the maximum reflected light amount variation of the medium reflector, for example, the minimum value of the reflected light amount variation of the low reflector and the medium reflector An intermediate value with the maximum value of the reflected light amount variation is set to the reflected light amount variation threshold σL0.

そして、属性検出部3は、検知した反射光量バラツキデータσLが閾値σL0よりも小さければ、検知物体を中反射体と判別する(S423→S424)。一方、属性検出部3は、検知した反射光量バラツキσLが閾値σL0よりも大きれば、検知物体を低反射体と判別する(S423→S425)。   If the detected reflected light amount variation data σL is smaller than the threshold σL0, the attribute detection unit 3 determines that the detected object is a medium reflector (S423 → S424). On the other hand, if the detected reflected light amount variation σL is larger than the threshold σL0, the attribute detection unit 3 determines the detected object as a low reflector (S423 → S425).

(2)距離バラツキにより中反射体と低反射体とを判別する場合(図11(B)参照)
属性検出部3は、物体検知データの距離データを取得すると、方位方向を確認して、同じ方位方向の距離データを所定時間(複数走査分)に亘って蓄積する(S431)。属性検出部3は、これら距離データを用いて、距離バラツキデータσDを算出し、予め設定しておいた距離バラツキ閾値σD0と比較する(S432→S433)。ここで、距離バラツキ閾値σD0は、図12(B)に示すように、中反射体による距離バラツキの取り得るデータ領域と低反射体による距離バラツキの取り得るデータ領域とが、距離に関係なく重なり合わないことを利用して設定する。すなわち、低反射体の距離バラツキの最低値と中反射体の距離バラツキの最高値との間の適当な距離バラツキ、例えば、これら低反射体の距離バラツキの最低値と中反射体の距離バラツキの最高値との中間値を、距離バラツキ閾値σD0に設定する。
(2) When discriminating between the medium reflector and the low reflector based on the distance variation (see FIG. 11B)
When obtaining the distance data of the object detection data, the attribute detection unit 3 confirms the azimuth direction and accumulates the distance data in the same azimuth direction over a predetermined time (for a plurality of scans) (S431). The attribute detection unit 3 calculates the distance variation data σD using these distance data, and compares it with a preset distance variation threshold σD0 (S432 → S433). Here, as shown in FIG. 12 (B), the distance variation threshold σD0 is such that the data region where the distance variation due to the middle reflector can take and the data region where the distance variation due to the low reflector can take place overlap regardless of the distance. Set by using what does not fit. That is, an appropriate distance variation between the minimum value of the distance variation of the low reflector and the maximum value of the distance variation of the medium reflector, for example, the minimum value of the distance variation of the low reflector and the distance variation of the medium reflector. An intermediate value with respect to the maximum value is set to the distance variation threshold σD0.

そして、属性検出部3は、検知した距離バラツキデータσDが閾値σD0よりも小さければ、検知物体を中反射体と判別する(S433→S434)。一方、属性検出部3は、検知した距離バラツキσDが閾値σD0よりも大きれば、検知物体を低反射体と判別する(S433→S435)。   If the detected distance variation data σD is smaller than the threshold σD0, the attribute detection unit 3 determines that the detected object is a middle reflector (S433 → S434). On the other hand, if the detected distance variation σD is larger than the threshold σD0, the attribute detection unit 3 determines the detected object as a low reflector (S433 → S435).

このような処理を行っても、前述の各実施形態と同様の効果を奏することができる。さらに、本実施形態の処理を行うことで、単に反射光量のみでは判別しにくい属性同士であっても、確実に属性判別することができる。   Even if such processing is performed, the same effects as those of the above-described embodiments can be obtained. Furthermore, by performing the processing of the present embodiment, it is possible to reliably discriminate between attributes that are difficult to discriminate with only the amount of reflected light.

なお、本実施形態では、中反射体と低反射体とをバラツキ特性に基づいて判別する例を示したが、高反射体を含む場合でも同様に属性判別を行うことができる。すなわち、バラツキ特性のみで、高反射体、中反射体、低反射体の属性判別を行うこともできる。
また、前述の説明では、レーダ信号処理部2と属性検出部3とをレーザレーダ装置7に組み込んだ場合を示したが、画像処理装置8の機能をレーザレーダ装置7に組み込むようにしても良く、逆に、レーザレーダ装置7の機能を画像処理装置8に組み込むようにしても良い。
さらには、レーザレーダ装置7の属性検出部3のみを画像処理装置8に組み込むようにしても良い。すなわち、レーザレーダ装置7は物体の検知(物体の位置や距離の検知)のみを行うものとし、検知した物体の前述の属性検出は画像処理装置8で行うようにしても良い。
In the present embodiment, an example is shown in which the medium reflector and the low reflector are discriminated based on the variation characteristics. However, even when the high reflector is included, the attribute discrimination can be performed similarly. That is, it is possible to perform attribute discrimination of the high reflector, the medium reflector, and the low reflector only by the variation characteristic.
In the above description, the case where the radar signal processing unit 2 and the attribute detection unit 3 are incorporated in the laser radar device 7 has been described. However, the function of the image processing device 8 may be incorporated in the laser radar device 7. On the contrary, the function of the laser radar device 7 may be incorporated in the image processing device 8.
Furthermore, only the attribute detection unit 3 of the laser radar device 7 may be incorporated in the image processing device 8. That is, the laser radar device 7 may only detect an object (detect the position and distance of the object), and the above-described attribute detection of the detected object may be performed by the image processing device 8.

また、前述の説明では、レーダ装置として、レーザレーダを例に示したが、他の方式(パルスドップラやFMCW等)のレーダ装置を用いても良く、さらには、検知領域内に存在する物体からの反射光を利用して三角測距を行う装置を用いても良い。
また、前述の説明では、検知した物体の種類(個体識別)、形状を同定する例を示したが、これらが分かることで、それぞれの種類の物体を計数することもできる。例えば、自車前方に自動車が何台走行しているとか、何人の人がいるとかを認識することができる。
In the above description, the laser radar is shown as an example of the radar apparatus. However, a radar apparatus of another method (pulse Doppler, FMCW, etc.) may be used, and further, from an object existing in the detection area. A device that performs triangulation using the reflected light may be used.
In the above description, an example is shown in which the type (individual identification) and shape of the detected object are identified. By knowing these, it is possible to count each type of object. For example, it is possible to recognize how many cars are traveling in front of the vehicle and how many people are present.

第1の実施形態の物体検出装置の主要部を示すブロック図、および、この物体検出装置を搭載した自動車の検知状態を示す概念図である。It is a block diagram which shows the principal part of the object detection apparatus of 1st Embodiment, and a conceptual diagram which shows the detection state of the motor vehicle carrying this object detection apparatus. 第1の実施形態の物体検出装置の主要動作フローを示すフローチャートである。It is a flowchart which shows the main operation | movement flow of the object detection apparatus of 1st Embodiment. 属性判別の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of attribute discrimination. 属性判別の反射光量閾値THの設定概念を説明する図である。It is a figure explaining the setting concept of the reflected light amount threshold value TH of attribute discrimination. 検知物体の属性が高反射体である場合の個体識別処理を説明するフローチャートである。It is a flowchart explaining the individual identification process in case the attribute of a detected object is a high reflector. 検知物体の属性が高反射体である場合の個体識別処理を説明する図である。It is a figure explaining the individual identification process in case the attribute of a detection object is a high reflector. 検知物体の属性が低反射体である場合の個体識別処理を説明するフローチャートである。It is a flowchart explaining the individual identification process in case the attribute of a detection object is a low reflector. 検知物体の属性が低反射体である場合の個体識別処理を説明する図である。It is a figure explaining the individual identification process in case the attribute of a detection object is a low reflector. 第2の実施形態に係る属性判別の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the attribute discrimination | determination based on 2nd Embodiment. 属性判別の反射光量閾値THnの設定概念を説明する図である。It is a figure explaining the setting concept of the reflected light amount threshold value THn of attribute discrimination. 第3の実施形態に係る属性判別の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the attribute discrimination | determination concerning 3rd Embodiment. 属性判別の反射光量バラツキ閾値σL0の設定概念を説明する図、および、属性判別の距離バラツキ閾値σD0の設定概念を説明する図である。It is a figure explaining the setting concept of the reflected light amount variation threshold value (sigma) L0 of attribute discrimination, and the setting concept of the distance variation threshold value (sigma) D0 of attribute discrimination. 他車のリフレクタにレーザ光が照射する場合の位置状態を示す模式図、および、人にレーザ光が照射する場合の物体の位置状態を示す模式図である。It is a schematic diagram which shows the position state in case a laser beam is irradiated to the reflector of another vehicle, and a schematic diagram which shows the position state of the object in case a person is irradiated with a laser beam. レーザレーダにおける高反射体(リフレクタ=回帰反射体)の反射光量を方位方向単位で示した図、および、レーザレーダにおける低反射体(人等)の反射光量を方位方向単位で示した図である。FIG. 5 is a diagram showing the amount of reflected light of a high reflector (reflector = regressive reflector) in a laser radar in an azimuth direction, and a diagram showing the amount of reflected light of a low reflector (such as a person) in a laser radar in an azimuth direction. .

符号の説明Explanation of symbols

1−レーダアンテナ、2−レーダ信号処理部、3−属性検出部、4−CCDカメラ、5−画像データ生成部、6−画像処理部、7−レーザレーダ装置、8−画像処理装置 1-radar antenna, 2-radar signal processor, 3-attribute detector, 4-CCD camera, 5-image data generator, 6-image processor, 7-laser radar device, 8-image processor

Claims (5)

検知領域内の物体の反射による反射強度と該物体の少なくとも距離とを取得する位置情報取得手段と、
前記取得した距離と反射強度とに基づいて前記物体の属性を判別する属性判別手段と、
を備えたことを特徴とする物体検出装置。
Position information acquisition means for acquiring a reflection intensity by reflection of an object in the detection region and at least a distance of the object;
Attribute determining means for determining an attribute of the object based on the acquired distance and reflection intensity;
An object detection apparatus comprising:
前記属性判別手段は、前記反射強度の特性の光量データ、距離別光量データ、光量バラツキデータ、距離バラツキデータの少なくとも1つを用いて判別閾値を設定し、物体の属性を判別する請求項1に記載の物体検出装置。   The attribute determination unit sets the determination threshold using at least one of the light amount data of the reflection intensity characteristic, the light amount data by distance, the light amount variation data, and the distance variation data, and determines the attribute of the object. The object detection apparatus described. 前記検知領域を撮像して画像データを生成する撮像手段と、
前記検知された物体を前記画像データに対応させて属性毎に異なる画像処理を行い、前記物体の個体識別を行う個体識別手段と、
を備えた請求項1または請求項2に記載の物体検出装置。
Imaging means for imaging the detection area and generating image data;
An individual identification unit that performs individual image processing for each attribute in association with the detected object corresponding to the image data, and performs individual identification of the object;
The object detection apparatus according to claim 1 or 2, further comprising:
前記個体識別手段は、特に回帰反射体を他の物体から識別する請求項3に記載の物体検出装置。   The object detection apparatus according to claim 3, wherein the individual identification unit identifies a regressive reflector from other objects. 少なくとも前記位置情報取得手段を、前記検知領域内にレーザ光を照射してその反射光を利用するレーザレーダにより実現する請求項1〜請求項4のいずれかに記載の物体検出装置。   The object detection apparatus according to claim 1, wherein at least the position information acquisition unit is realized by a laser radar that irradiates a laser beam in the detection region and uses the reflected light.
JP2005302694A 2005-10-18 2005-10-18 Object detection device Pending JP2007114831A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005302694A JP2007114831A (en) 2005-10-18 2005-10-18 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005302694A JP2007114831A (en) 2005-10-18 2005-10-18 Object detection device

Publications (1)

Publication Number Publication Date
JP2007114831A true JP2007114831A (en) 2007-05-10

Family

ID=38096977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005302694A Pending JP2007114831A (en) 2005-10-18 2005-10-18 Object detection device

Country Status (1)

Country Link
JP (1) JP2007114831A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282592A (en) * 2008-05-20 2009-12-03 Hitachi Ltd Vehicular outside world recognition device and vehicle system
JP4461199B1 (en) * 2009-09-24 2010-05-12 北陽電機株式会社 Distance measuring device
JP2010164440A (en) * 2009-01-16 2010-07-29 Stanley Electric Co Ltd Distance image processing device and photographing device
WO2010119860A1 (en) * 2009-04-14 2010-10-21 日立オートモティブシステムズ株式会社 External environment recognition device for vehicle and vehicle system using same
JP2016090268A (en) * 2014-10-30 2016-05-23 株式会社デンソー In-vehicle time-of-flight optical ranging device
JP2017138219A (en) * 2016-02-04 2017-08-10 株式会社デンソー Object recognition device
GB2560799A (en) * 2017-01-23 2018-09-26 Ford Global Tech Llc Sign recognition for autonomous vehicles
KR20190060346A (en) * 2017-11-24 2019-06-03 현대자동차주식회사 System and Method for controlling active hood of vehicle
JP2019144230A (en) * 2017-12-29 2019-08-29 アクシス アーベー Laser ranging and illumination
CN112215867A (en) * 2020-10-23 2021-01-12 劢微机器人科技(深圳)有限公司 Point cloud data segmentation method, point cloud data segmentation equipment, storage medium and device
JP2021063808A (en) * 2019-10-15 2021-04-22 ジック アーゲー Distance measurement type photoelectric sensor and target detection method
JP7317732B2 (en) 2020-01-20 2023-07-31 株式会社東芝 Estimation device, object transport system, estimation method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105891A (en) * 1996-09-30 1998-04-24 Mazda Motor Corp Moving object recognizing device for vehicle
JP2004191131A (en) * 2002-12-10 2004-07-08 Denso Corp Method of, system for, and program for discriminating target
JP2005141517A (en) * 2003-11-07 2005-06-02 Daihatsu Motor Co Ltd Vehicle detecting method and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105891A (en) * 1996-09-30 1998-04-24 Mazda Motor Corp Moving object recognizing device for vehicle
JP2004191131A (en) * 2002-12-10 2004-07-08 Denso Corp Method of, system for, and program for discriminating target
JP2005141517A (en) * 2003-11-07 2005-06-02 Daihatsu Motor Co Ltd Vehicle detecting method and device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282592A (en) * 2008-05-20 2009-12-03 Hitachi Ltd Vehicular outside world recognition device and vehicle system
JP2010164440A (en) * 2009-01-16 2010-07-29 Stanley Electric Co Ltd Distance image processing device and photographing device
WO2010119860A1 (en) * 2009-04-14 2010-10-21 日立オートモティブシステムズ株式会社 External environment recognition device for vehicle and vehicle system using same
JP2010250501A (en) * 2009-04-14 2010-11-04 Hitachi Automotive Systems Ltd External environment recognition device for vehicle and vehicle system using the same
US8924140B2 (en) 2009-04-14 2014-12-30 Hitachi, Ltd. External environment recognition device for vehicle and vehicle system using same
JP4461199B1 (en) * 2009-09-24 2010-05-12 北陽電機株式会社 Distance measuring device
JP2011069671A (en) * 2009-09-24 2011-04-07 Hokuyo Automatic Co Distance measuring apparatus
JP2016090268A (en) * 2014-10-30 2016-05-23 株式会社デンソー In-vehicle time-of-flight optical ranging device
JP2017138219A (en) * 2016-02-04 2017-08-10 株式会社デンソー Object recognition device
GB2560799A (en) * 2017-01-23 2018-09-26 Ford Global Tech Llc Sign recognition for autonomous vehicles
KR20190060346A (en) * 2017-11-24 2019-06-03 현대자동차주식회사 System and Method for controlling active hood of vehicle
KR102496648B1 (en) * 2017-11-24 2023-02-07 현대자동차주식회사 System and Method for controlling active hood of vehicle
JP2019144230A (en) * 2017-12-29 2019-08-29 アクシス アーベー Laser ranging and illumination
JP2021063808A (en) * 2019-10-15 2021-04-22 ジック アーゲー Distance measurement type photoelectric sensor and target detection method
JP7062739B2 (en) 2019-10-15 2022-05-06 ジック アーゲー Distance measurement type photoelectric sensor and target detection method
JP7317732B2 (en) 2020-01-20 2023-07-31 株式会社東芝 Estimation device, object transport system, estimation method, and program
CN112215867A (en) * 2020-10-23 2021-01-12 劢微机器人科技(深圳)有限公司 Point cloud data segmentation method, point cloud data segmentation equipment, storage medium and device

Similar Documents

Publication Publication Date Title
JP2007114831A (en) Object detection device
JP7065410B2 (en) Empty parking space detection device and empty parking space detection method
JP5145986B2 (en) Object detection apparatus and distance measuring method
JP3669205B2 (en) Obstacle recognition device
JP6795027B2 (en) Information processing equipment, object recognition equipment, device control systems, moving objects, image processing methods and programs
JP5145585B2 (en) Target detection device
JP5407898B2 (en) Object detection apparatus and program
JP6358552B2 (en) Image recognition apparatus and image recognition method
JP2004112144A (en) Front car tracking system and method for tracking front car
JP2015143979A (en) Image processor, image processing method, program, and image processing system
JP2000357233A (en) Body recognition device
JP2001004368A (en) Object recognizing apparatus
JP6782433B2 (en) Image recognition device
JPH07129898A (en) Obstacle detecting device
JP2001134771A (en) Object recognizing device
JP2007240314A (en) Object detector
JP2001052171A (en) Surrounding environment recognizing device
JP4102885B2 (en) Parked vehicle detection method and parked vehicle detection system
WO2020196513A1 (en) Object detection device
JP2000266539A (en) Inter-vehicle distance measuring apparatus
JP6596889B2 (en) Object detection device
JP2011027595A (en) Map data verification system
CN110954912B (en) Method and apparatus for optical distance measurement
JP2010020476A (en) Object detection device and object detection method
JP5488805B2 (en) Laser sensor and detection target determination method using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101012

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110823