JP2007114831A - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP2007114831A JP2007114831A JP2005302694A JP2005302694A JP2007114831A JP 2007114831 A JP2007114831 A JP 2007114831A JP 2005302694 A JP2005302694 A JP 2005302694A JP 2005302694 A JP2005302694 A JP 2005302694A JP 2007114831 A JP2007114831 A JP 2007114831A
- Authority
- JP
- Japan
- Prior art keywords
- reflector
- reflected light
- attribute
- light amount
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
Abstract
Description
物体を検出する装置、特に、検出した物体の属性を判別する物体検出装置に関するものである。 The present invention relates to an apparatus for detecting an object, and more particularly to an object detection apparatus for determining an attribute of a detected object.
従来、自動車に搭載され、自車前方の道路状況や他車等の物体を検出する物体検出装置として、レーザレーダ等のレーダ装置と、CCDカメラ等の撮像装置で取得した画像を画像処理する画像処理装置とを、備えたものが多く存在する(例えば、特許文献1、特許文献2参照)。このような物体検出装置の殆どは、レーダ装置で、各物体を検出するとともに、自車から各物体までの距離および自車に対する各物体の方位を含む物体の位置情報を検出する。そして、物体検出装置は、画像処理装置で、この位置情報を画像データ上にマッピングして画像データを解析することで、各物体の形状や種類等の個体識別を行っていた。
しかしながら、レーダ装置で得られた物体検知の情報を画像データにマッピングして、物体を個体識別する場合、次に示すような問題があった。
図13(A)は先行車のリフレクタにレーザ光が照射する場合の位置状態を示す模式図であり、(B)は人にレーザ光が照射する場合の物体の位置状態を示す模式図である。
図14(A)はレーザレーダにおける高反射体(リフレクタ=回帰反射体)の反射光量を方位方向単位で示した図であり、(B)はレーザレーダにおける低反射体(人等)の反射光量を方位方向単位で示した図であり、(C)は、(A)と(B)とを重ね合わせた図である。
However, when the object detection information obtained by the radar device is mapped to image data and an object is individually identified, there are the following problems.
FIG. 13A is a schematic diagram showing a position state when a reflector of a preceding vehicle is irradiated with laser light, and FIG. 13B is a schematic diagram showing a position state of an object when a person is irradiated with laser light. .
FIG. 14A is a diagram showing the amount of reflected light of a high reflector (reflector = regressive reflector) in laser radar in azimuth direction, and FIG. 14B is the amount of reflected light of a low reflector (such as a person) in laser radar. (C) is a diagram in which (A) and (B) are superimposed.
図13(A)に示すように、自車101から方位θAに先行車102のリフレクタ(高反射体)121Aが存在すると、図14(A)に示すように、反射光量は方位θAでピーク値P2Aが検知される。また、図13(B)に示すように、自車101から同じ方位θAに人103Aが存在すると、図14(B)に示すように、反射光量は方位θAでピーク値P3Aが検知される。
As shown in FIG. 13 (A), when the reflector (high reflector) 121A of the preceding
同様に、図13(A)に示すように、自車101から方位θBに先行車102のリフレクタ(高反射体)121Bが存在すると、図14(A)に示すように、反射光量は方位θBでピーク値P2Bが検知される。また、図13(B)に示すように、自車101から同じ方位θBに人103Bが存在すると、図14(B)に示すように、反射光量は方位θBでピーク値P3Bが検知される。
Similarly, as shown in FIG. 13 (A), when the reflector (high reflector) 121B of the preceding
このように、先行車102のリフレクタ121Aと人103Aとが同じ方位θAに存在し、先行車102のリフレクタ121Bと人103Bとが同じ方位θBに存在する場合、図14(C)に示すように、それぞれの反射光量特性のピーク発生方位は一致する。
In this way, when the
また、レーザ光は直進性が強く、且つ、ビーム幅が広がり難いけれども、完全に広がらないことはない。このため、リフレクタ121A,Bや人103A,103Bが存在する位置でのビーム幅がリフレクタ121A、121B間の距離および人103A,103B間の距離よりも広いと、これらでレーザ光が反射されて、或る程度の反射受光量を得てしまう。
この結果、図14(C)に示すように、リフレクタ(高反射体)であっても人(低反射体)であっても、反射光量のレベルが異なるだけで、略同様の反射光量特性曲線が得られてしまう。
Further, the laser beam has a strong straightness and the beam width is difficult to spread, but it does not spread completely. For this reason, if the beam width at the position where the
As a result, as shown in FIG. 14C, the reflected light amount characteristic curve is substantially the same regardless of whether the level of the reflected light amount is different between the reflector (high reflector) and the human (low reflector). Will be obtained.
このため、従来の物体検出装置は、反射光量のピークを検知すると、これに対応する方位θを算出し、画像データの該方位θに対応する領域に対して、各種のサンプリングパターンを適合させて、物体の個体識別を行っていた。 For this reason, when the conventional object detection device detects the peak of the reflected light amount, it calculates the azimuth θ corresponding to this, and adapts various sampling patterns to the region corresponding to the azimuth θ of the image data. The individual identification of the object was performed.
ところが、この方法では、ピーク値に対応する物体が、先行車のリフレクタであるのか人であるのかが判らないために、ピークを検出する毎に、記憶する全てのサンプリングパターンを適合して、最適なサンプリングパターンを抽出しなければならない。このため、処理が煩雑化するとともに、高速な物体の個体識別を行うことができない。 However, in this method, since it is not known whether the object corresponding to the peak value is a reflector of a preceding vehicle or a person, every time a peak is detected, all stored sampling patterns are adapted and optimized. A sampling pattern must be extracted. For this reason, the processing becomes complicated, and high-speed object identification cannot be performed.
したがって、この発明の目的は、物体の個体識別を簡略化するとともに高速化することができる物体検出装置を提供することにある。 Therefore, an object of the present invention is to provide an object detection apparatus that can simplify and speed up individual identification of an object.
この発明の物体検出装置は、検知領域内の物体の反射による反射強度と該物体の少なくとも距離とを取得する位置情報取得手段と、取得した距離と反射強度とに基づいて物体の属性を判別する属性判別手段と、を備えたことを特徴としている。 The object detection device of the present invention discriminates an attribute of an object based on position information acquisition means for acquiring the reflection intensity due to reflection of the object in the detection area and at least the distance of the object, and the acquired distance and reflection intensity. And an attribute discrimination means.
この構成では、位置情報取得手段は、検知領域内に存在する物体からの反射信号を受信して、少なくとも物体までの距離を検出するとともに、これに関連付けして反射信号強度を取得する。属性判別手段は、得られた物体の距離と反射信号強度とから、物体の属性を判別する。より具体的には、反射信号強度の判別閾値を設けて、複数の強度領域を設定する。 In this configuration, the position information acquisition unit receives the reflection signal from the object existing in the detection region, detects at least the distance to the object, and acquires the reflection signal intensity in association with this. The attribute discrimination means discriminates the attribute of the object from the obtained distance of the object and the reflected signal intensity. More specifically, a plurality of intensity regions are set by providing a discrimination threshold value for reflected signal intensity.
属性判別手段は、検出した距離に対して、得られた反射信号強度がいずれの強度領域に属するかを判別する。そして、属性判別手段は、この判別結果に基づいて、物体の属性、具体的には高反射体であるのか低反射体であるのかを出力する。 The attribute discrimination means discriminates which intensity region the obtained reflected signal intensity belongs to with respect to the detected distance. Then, the attribute discrimination means outputs the attribute of the object, specifically, whether it is a high reflector or a low reflector based on this discrimination result.
また、この発明の物体検出装置の属性判別手段は、反射強度の特性の光量データ、距離別光量データ、光量バラツキデータ、距離バラツキデータの少なくとも1つを用いて判別閾値を設定し、物体の属性を判別することを特徴としている。 Further, the attribute discrimination means of the object detection apparatus of the present invention sets a discrimination threshold using at least one of the light intensity data of the reflection intensity characteristic, the light intensity data by distance, the light intensity variation data, and the distance variation data, and the object attribute It is characterized by distinguishing.
この構成では、属性判別手段は、判別閾値として、具体的に、次に示す4つの閾値設定方法から、いずれかを選んで設定する。 In this configuration, the attribute discrimination means specifically selects and sets one of the following four threshold setting methods as the discrimination threshold.
(1)高反射体と低反射体とでは反射強度が2桁以上異なることを利用して、距離に依存することのない一定の反射光量で閾値を決定する。
(2)高反射体、低反射体ともに距離が長くなるほど反射強度が減衰することを参照して、距離に応じて変化させながら反射光量の閾値を決定する。
(3)低反射体が高反射体よりも反射強度のバラツキが大きいことを利用して、特定量の反射光量バラツキを閾値に設定する。
(4)低反射体が高反射体よりも検出される距離のバラツキが大きいことを利用して、特定量の検出距離バラツキを閾値に設定する。
これらの方法により、高反射体と低反射体とが明確に判別される。
(1) The threshold value is determined with a constant amount of reflected light that does not depend on the distance by utilizing the fact that the reflection intensity differs by two digits or more between the high reflector and the low reflector.
(2) With reference to the fact that the reflection intensity is attenuated as the distance becomes longer for both the high reflector and the low reflector, the threshold of the amount of reflected light is determined while changing according to the distance.
(3) Utilizing the fact that the variation in the reflection intensity of the low reflector is larger than that of the high reflector, a specific amount of reflected light amount variation is set as the threshold value.
(4) Utilizing the fact that the variation in the distance at which the low reflector is detected is greater than that of the high reflector, the detection distance variation of a specific amount is set as a threshold value.
By these methods, a high reflector and a low reflector are clearly distinguished.
また、この発明の物体検出装置は、検知領域を撮像して画像データを生成する撮像手段と、検知された物体を画像データに対応させて属性毎に異なる画像処理を行い、物体の個体識別を行う個体識別手段と、を備えたことを特徴としている。 In addition, the object detection device of the present invention performs imaging processing for capturing an image of a detection region and generating image data, and performs image processing different for each attribute in association with the detected object corresponding to the image data, thereby identifying an individual object. And an individual identification means for performing the identification.
この構成では、撮像手段は、位置情報取得手段が物体を検知する検知領域の画像データを取得する。個体識別手段は、検出した物体の位置を画像データ上にマッピングし、対応する属性毎に異なる画像処理領域およびサンプリングパターンを設定する。個体識別手段は、各画像処理領域に対して予め複数用意された個別のサンプリングパターンを用いて、設定した画像領域内で物体のパターンを同定する。そして、パターンが同定されると、このパターンに基づいて物体の種類、例えば、自動車、デリニエータ、人、物等を出力する。 In this configuration, the imaging unit acquires image data of a detection area where the position information acquisition unit detects an object. The individual identifying means maps the position of the detected object on the image data, and sets a different image processing region and sampling pattern for each corresponding attribute. The individual identifying means identifies the pattern of the object in the set image area using a plurality of individual sampling patterns prepared in advance for each image processing area. And if a pattern is identified, based on this pattern, the kind of object, for example, a car, a delineator, a person, an object, etc. will be output.
また、この発明の物体検出装置の個体識別手段は、特に回帰反射体を他の物体から識別することを特徴としている。この構成では、具体的に、先行車の後部に備え付けられたリフレクタである回帰反射体を、人等の他の物体から識別する。 In addition, the individual identifying means of the object detecting device of the present invention is characterized in that, in particular, the regressive reflector is identified from other objects. In this configuration, specifically, the retroreflector, which is a reflector provided at the rear part of the preceding vehicle, is identified from other objects such as a person.
また、この発明の物体検出装置は、少なくとも、検知領域内にレーザ光を照射してその反射光を利用するレーザレーダにより位置情報取得手段を実現することを特徴としている。この構成では、具体的に、少なくとも位置情報の取得装置としてレーザレーダを用いる。 In addition, the object detection apparatus of the present invention is characterized in that the position information acquisition means is realized by a laser radar that irradiates at least a detection region with laser light and uses the reflected light. In this configuration, specifically, a laser radar is used as at least a position information acquisition device.
この発明によれば、レーザレーダ等の位置情報取得手段で得られた物体の距離および反射光量から、まず物体を所定の属性単位で分類することで、後段の個体識別処理を容易且つ高速に実行することができる。そして、このように物体を属性に基づいて大まかに分別した後に、詳細に個体識別することで、それぞれの処理が簡素で高速であるので、従来の個体識別方法よりも、簡単且つ高速に物体の識別を行うことができる。 According to the present invention, the individual identification processing in the subsequent stage is easily and rapidly performed by first classifying the objects in predetermined attribute units from the distance and the amount of reflected light obtained by the position information acquisition means such as a laser radar. can do. Then, after roughly classifying the object based on the attribute in this way, the individual identification is performed in detail, so that each process is simple and high speed. Therefore, the object identification can be performed more easily and faster than the conventional individual identification method. Identification can be made.
本発明の第1の実施形態に係る物体検出装置について図1〜図8を参照して説明する。
図1(A)は本実施形態の物体検出装置の主要部を示すブロック図であり、図1(B)は本実施形態の物体検出装置を搭載した自動車の検知状態を示す概念図である。
本実施形態の物体検出装置は、レーダアンテナ1、レーダ信号処理部2、属性検出部3、CCD(ステレオ)カメラ4、画像データ生成部5、画像処理部6を備える。
An object detection apparatus according to a first embodiment of the present invention will be described with reference to FIGS.
FIG. 1A is a block diagram showing the main part of the object detection device of the present embodiment, and FIG. 1B is a conceptual diagram showing the detection state of an automobile equipped with the object detection device of the present embodiment.
The object detection apparatus of this embodiment includes a radar antenna 1, a radar
レーダアンテナ1は、自動車(自車)101の前方バンパ下端部付近に設置され、自車101の前方にレーザビームを送信し、検知領域内の物体にレーザビームが反射してなる反射光を受信する。レーダアンテナ1は、自車101に対して水平方向へ回動可能に設置されており、レーダアンテナ1を所定方位角範囲内で回動させることで、レーザビームを水平方向に走査する。
The radar antenna 1 is installed near the lower end of the front bumper of the automobile (own vehicle) 101, transmits a laser beam in front of the
レーダ信号処理部2は、レーザビーム制御部と受信信号解析部とを備え、レーザビーム制御部で生成されたレーザ制御信号を、レーダアンテナ1に適宜与えることにより、所定方向へ送信するレーザビームを形成する。また、レーダ信号処理部2は、レーダアンテナ1から反射光を受信すると、該受信信号の強度すなわち反射光量を検出するとともに、方位方向を検出する。さらに、レーダ信号処理部2は、対応する受信信号の受信タイミングと送信レーザビームの送信タイミングとから、自車101と検知した物体との距離を測距する。これにより、水平方向の所定角範囲内の物体を検知する。
The radar
属性検出部3は、レーダ信号処理部2から出力される物体検知結果を用いて、後述する方法で検知した物体の属性を検出する。ここで、属性は反射光量に基づいて設定されており、例えば、リフレクタ等の反射光量が大きい高反射体と、人等の反射光量が小さい低反射体と、からなる。
そして、これらレーダ信号処理部2および属性検出部3が、レーザレーダ装置7として一体化されている。
The
The radar
CCDカメラ4は、自車101のフロントガラスの上端部付近に設置され、自車101の前方の道路状況を撮像する。
画像データ生成部5は、CCDカメラ4が撮像した映像を、所定タイミング毎に画像データ化して、画像処理部6に与える。
画像処理部6は、レーザレーダ装置7から与えられる物体検知情報、方位、距離、属性に基づいて、後述する方法で各物体の個体識別を行う。
そして、これら画像データ生成部5および画像処理部6が、画像処理装置8として一体化されている。
The CCD camera 4 is installed in the vicinity of the upper end portion of the windshield of the
The image
The
The image
次に、本実施形態の物体検知装置の処理を、図2〜図8を参照して具体的に説明する。
図2は本実施形態の物体検出装置の主要動作フローを示すフローチャートである。
図3は属性判別の処理フローを示すフローチャートであり、(A)は属性を高反射体と低反射体との2種類に判別する場合を示し、(B)は属性を高反射体、中反射体、および低反射体の3種類に判別する場合を示す。なお、ここで説明する高反射体は例えば自動車やデリニエータに備えられたリフレクタであり、中反射体および低反射体は例えば人や物(障害物)である。
図4は属性判別の反射光量閾値THの設定概念を説明する図であり、(A)は属性を高反射体と低反射体との2種類に判別する閾値TH0を示し、(B)は属性を高反射体、中反射体、および低反射体の3種類に判別する第1閾値TH1、第2閾値TH2を示す。なお、図4において、太実線が高反射体の反射光量特性曲線を示し、中実線が中反射体の反射光量特性曲線を示し、細実線が低反射体の反射光量特性曲線を示す。
Next, the process of the object detection device of the present embodiment will be specifically described with reference to FIGS.
FIG. 2 is a flowchart showing a main operation flow of the object detection apparatus of the present embodiment.
FIG. 3 is a flowchart showing a processing flow of attribute discrimination. FIG. 3A shows a case where the attribute is discriminated into two types, that is, a high reflector and a low reflector, and FIG. The case where it discriminate | determines in three types, a body and a low reflector is shown. The high reflector described here is, for example, a reflector provided in an automobile or a delineator, and the medium reflector and the low reflector are, for example, a person or an object (obstacle).
FIG. 4 is a diagram for explaining the concept of setting the reflected light amount threshold TH for attribute discrimination. FIG. 4A shows a threshold TH0 for discriminating the attribute into two types, a high reflector and a low reflector, and FIG. The first threshold value TH1 and the second threshold value TH2 are shown for discriminating into three types of high reflector, medium reflector and low reflector. In FIG. 4, the thick solid line indicates the reflected light amount characteristic curve of the high reflector, the solid solid line indicates the reflected light amount characteristic curve of the medium reflector, and the thin solid line indicates the reflected light amount characteristic curve of the low reflector.
前述のように、レーザレーダ装置7のレーダ信号処理部2は、自車101前方に対して水平方向に走査を行いながらレーザビームを送信し、物体からの反射光を受信することで、物体の検知を行う(S101)。この際、物体検知データには検知物体の方位、受信タイミング(受信時刻)が含まれる。同時に、レーダ信号処理部2は、反射光の強度、すなわち反射光量を検出し、物体検知データに与える(S102)。レーダ信号処理部2は、得られた物体検知情報から、検知物体の距離を算出して、方位、距離を含む物体位置データを算出する(S103)。なお、距離は、既知の通り、送信タイミングと受信タイミングとの時間差により算出される。
As described above, the radar
レーザレーダ装置7の属性検出部3は、物体検知データおよび物体位置データを用いて、属性判別を行う(S104)。
(1)属性を高反射体と低反射体との2種類に判別する場合(図3(A)参照)
属性検出部3は、反射光量データを読み出し、予め設定しておいた反射光量閾値TH0と比較する。ここで、反射光量閾値TH0は、図4(A)に示すように、高反射体の反射光量の取り得る光量領域と低反射体の反射光量の取り得る光量領域とが、距離に関係なく重なり合わないことを利用して設定される。すなわち、高反射体の反射光量の最低値と低反射体の反射光量の最高値との間の適当な反射光量、例えば、これら高反射体の反射光量の最低値と低反射体の反射光量の最高値との中間値を、反射光量閾値TH0に設定する。
The
(1) When discriminating attributes into two types, a high reflector and a low reflector (see FIG. 3A)
The
そして、属性検出部3は、検知した反射光量データが閾値TH0よりも大きければ、検知物体を高反射体と判別する(S401→S402)。一方、属性検出部3は、検知した反射光量が閾値TH0よりも小さければ、検知物体を低反射体と判別する(S401→S403)。
Then, if the detected reflected light amount data is larger than the threshold value TH0, the
(2)属性を高反射体、中反射体、低反射体の3種類に判別する場合(図3(B)参照)
属性検出部3は、反射光量データを読み出し、予め設定しておいた反射光量第1閾値TH1と比較する。ここで、反射光量第1閾値TH1は、図4(B)に示すように、高反射体の反射光量の取り得る光量領域と中反射体および低反射体の反射光量の取り得る光量領域とが、距離に関係なく重なり合わないことを利用して設定される。すなわち、高反射体の反射光量の最低値と中反射体および低反射体の反射光量の最高値との間の適当な反射光量、例えば、これら高反射体の反射光量の最低値と中反射体および低反射体の反射光量の最高値との中間値を、反射光量第1閾値TH1に設定する。
(2) When discriminating attributes into three types: high reflector, medium reflector, and low reflector (see FIG. 3B)
The
そして、属性検出部3は、検知した反射光量データが第1閾値TH1よりも大きければ、検知物体を高反射体と判別する(S404→S405)。一方、属性検出部3は、検知した反射光量が第1閾値TH1よりも小さければ、検知物体を高反射体ではないと判別し、次の判別処理を行う(S404→S406)。
And the
次に、属性検出部3は、反射光量データを、予め設定しておいた反射光量第2閾値TH2と比較する。ここで、反射光量第2閾値TH2は、図4(B)に示すように、中反射体の反射光量の取り得る光量領域と低反射体の反射光量の取り得る光量領域とが、距離に関係なく重なり合わないことを利用して設定される。すなわち、中反射体の反射光量の最低値と低反射体の反射光量の最高値との間の適当な反射光量、例えば、これら中反射体の反射光量の最低値と低反射体の反射光量の最高値との中間値を、反射光量第2閾値TH2に設定する。
Next, the
そして、属性検出部3は、反射光量データが第2閾値TH2よりも大きければ、検知物体を中反射体と判別する(S406→S407)。一方、属性検出部3は、検知した反射光量が第2閾値TH2よりも小さければ、検知物体を低反射体と判別する(S406→S408)。
If the reflected light amount data is larger than the second threshold value TH2, the
このような属性判別処理は、検知物体の全てに対して行われ、属性が決定すると、レーザレーダ装置7は、前記物体検知データ、物体位置データ、および属性データを関連付けした状態で、画像処理装置8に与える。
Such attribute discrimination processing is performed for all of the detected objects. When the attribute is determined, the
このようなレーザレーダ装置7の動作と並行して、CCDカメラ4は自車101前方を撮像し(S105)、画像処理装置8に出力する。画像処理装置8の画像データ生成部5は、所定タイミングで画像データを順次形成して画像処理部6に与える(S106)。この際、画像データには、画像データの生成タイミング、すなわち撮像タイミングが添付されている。
In parallel with the operation of the
画像処理部6は、レーザレーダ装置7から与えられた物体検知データ、物体位置データ、および属性データと、画像データ生成部5から与えられた画像データとに基づいて、時刻を同期させながら物体の個体識別を行う(S107)。
The
具体的に、まず、画像処理部6は、物体位置データに基づいて物体検知点を画像データ上にマッピングする。なお、以下のマッピング処理から開始される個体識別処理については、高反射体と低反射体との2種類に区別する場合を説明する。
Specifically, first, the
(1)検知物体の属性が高反射体である場合
図5は検知物体の属性が高反射体である場合の個体識別処理を説明するフローチャートである。
図6は検知物体の属性が高反射体である場合の個体識別処理を説明する図である。図6(A)はマッチング領域設定状態を示し、(B)はマッチング領域のみを抽出した状態を示し、(C),(D)はマッチングに用いるサンプリングパターンを示す。
(1) When the attribute of the detected object is a high reflector FIG. 5 is a flowchart for explaining individual identification processing when the attribute of the detected object is a high reflector.
FIG. 6 is a diagram for explaining individual identification processing when the attribute of the detected object is a high reflector. 6A shows a matching area setting state, FIG. 6B shows a state where only the matching area is extracted, and FIGS. 6C and 6D show sampling patterns used for matching.
画像処理部6は、このマッピングした物体検知点に対して、対応する属性データからマッチング処理領域を設定する(S701)。具体的に、画像処理部6は、検知物体が高反射体であることを識別すると、所定間隔で現れる二つの物体検知点を含むマッチング処理領域12を設定する。
The
この際、高反射体は先行車後部に設置されたリフレクタや、道路脇や道路面に設置されたデリニエータであるので、前記マッチング領域を自動車の形状に則した矩形状に設定する。具体的には、マッチング領域12は、前記二つの物体検知点が幅方向の両端に位置するように幅を設定し、別途予め設定した長さで高さを設定する。ここで、この設定される高さは、例えば、自車からの距離に基づき自車から前方に見える一般的な自動車の寸法を予め算出しておき、この算出値から設定される。
At this time, since the high reflector is a reflector installed at the rear part of the preceding vehicle or a delineator installed on the side of the road or on the road surface, the matching area is set to a rectangular shape according to the shape of the automobile. Specifically, the matching
次に、画像処理部6は、抽出したマッチング領域12の画像データに対して、コントラストによる外形線抽出等の画像処理を行い、物体検知点を含む物体の形状を検出する(S702)。
Next, the
また、画像処理部6は、図6(C)や(D)に示すようなサンプリングパターン201〜203を予めメモリに記憶しており、順次これらサンプリングパターン201〜203を読み出す(S703)。図6(C),(D)に示すように、高反射体の物体に対するサンプリングパターン201〜203は、マッチング領域12と同様に、自動車の形状に則して設定されており、予め各種自動車の背面形状(後方から見た形状)で設定されている。
The
なお、画像処理部6は、サンプリングパターンを読み出して利用する場合、物体に対して得られた距離情報に基づいて記憶されているサンプリングパターンを拡大または縮小する。例えば、画像サイズがmドット×nドットのサンプリングパターンを用いる場合で、基準距離(サンプリングパターンを設定した時点で利用した距離)L0に対して検知距離がLであれば、パターンマッチングに利用する画像サイズは、m×(L0/L)ドット×n×(L0/L)ドットに変換する。
Note that when the sampling pattern is read and used, the
次に、画像処理部6は、検出した物体形状と各サンプリングパターン201〜203とを用いて、パターンマッチング処理を行い、類似パターンを検索する(S704)。画像処理部6は、検出した物体形状とサンプリングパターンとの類似性を既知の方法で検証し、予め設定した基準以上に類似するパターンが存在すれば、このサンプリングパターンを適応する。そして、画像処理部6は、この類似パターンに対応する物体の種類を読み出し、物体の種類を限定する。例えば、図6に示す場合であれば、サンプリングパターンが自動車の形状であるので、類似パターンが存在すれば、検知物体は、この類似パターンに対応した自動車であると判断する(S705→S706)。ここで、各種自動車のサンプリングパターン、例えば、普通自動車、軽トラック、および大型トラック等をそれぞれ個別に設定しておけば、車種をも検出することができる。
Next, the
さらに、画像処理部6は選択したサンプリングパターンを用いて、物体のサイズを検出する。例えば、決定した類似パターンが画素数にしてm1ドット×n1ドットであり、当該物体の距離がLであれば、レーザレーダの焦点距離をfとして画像データの画素ピッチ距離をpとすると、M(=m1×p×L1/f)×N(=n1×p×L1/f)と算出することができる。
Further, the
ところで、類似となるサンプリングパターンが複数存在する場合には、画像処理部6は、類似するサンプリングパターンの中から最も類似性の強いサンプリングパターンを選択すればよい。
By the way, when there are a plurality of similar sampling patterns, the
一方、画像処理部6は、全てのサンプリングパターンと検知物体に基づく形状との類似性が、前記所定の基準に達しなければ、検知された高反射体が自動車のリフレクタではないと判断する(S705→S707)。そして、例えば、このように自動車のリフレクタとして判断されない高反射体が所定方向に連続することを検知すると、これらがデリニエータであると判断する。
そして、画像処理部6は、このように判断した物体の検出結果を、物体検出装置が搭載される上位システムに出力する(S708)。
On the other hand, if the similarity between all the sampling patterns and the shape based on the detected object does not reach the predetermined reference, the
Then, the
(2)検知物体の属性が低反射体である場合
図7は検知物体の属性が低反射体である場合の個体識別処理を説明するフローチャートである。
図8は検知物体の属性が低反射体である場合の個体識別処理を説明する図である。図8(A)はマッチング領域設定状態を示し、(B)はマッチング領域のみを抽出した状態を示し、(C),(D)はマッチングに用いるサンプリングパターンを示す。
(2) When the attribute of the detected object is a low reflector FIG. 7 is a flowchart for explaining individual identification processing when the attribute of the detected object is a low reflector.
FIG. 8 is a diagram for explaining individual identification processing when the attribute of the detected object is a low reflector. 8A shows a matching area setting state, FIG. 8B shows a state where only the matching area is extracted, and FIGS. 8C and 9D show sampling patterns used for matching.
画像処理部6は、このマッピングした物体検知点に対して、対応する属性データからマッチング処理領域を設定する(S711)。具体的に、画像処理部6は、検知物体が低反射体であることを識別すると、それぞれの物体検知点に対して各物体検知点を含むマッチング処理領域12A,12Bを設定する。
The
この際、低反射体は道路上で停止したり移動する人であったり、道路上に載置された物(障害物や荷物等)であるので、前記マッチング領域を人の形状に則して設定する。具体的には、マッチング領域12A,12Bは、それぞれ物体検知点を幅と高さ方向の中心にして、人の輪郭に則した幅および高さの矩形領域を設定する。ここで、この設定される幅および高さは、例えば、自車からの距離に基づき自車から前方に見える一般的な人の寸法を予め算出しておき、この算出値から設定される。
At this time, since the low reflector is a person who stops or moves on the road, or is an object (obstacle, luggage, etc.) placed on the road, the matching area is determined according to the shape of the person. Set. Specifically, the
次に、画像処理部6は、抽出したマッチング領域12A,12Bの画像データに対して、コントラストによる外形線抽出等の画像処理を行い、物体検知点を含む物体の形状を検出する(S712)。
Next, the
また、画像処理部6は、図8(C)や(D)に示すようなサンプリングパターン301〜303を予めメモリに記憶しており、順次これらサンプリングパターン301〜303を読み出す(S713)。図8(C),(D)に示すように、低反射体の物体に対するサンプリングパターン301〜303は、マッチング領域12A,12Bと同様に人の形状に則して設定されており、予め各種人の行動パターンの背面形状(後方から見た形状)で設定されている。
Further, the
なお、この場合も、画像処理部6は、サンプリングパターンを読み出して利用する場合、物体に対して得られた距離情報に基づいて記憶されているサンプリングパターンを拡大または縮小する。
Also in this case, when the
次に、画像処理部6は、検出した物体形状と各サンプリングパターン301〜303とを用いて、パターンマッチング処理を行い、類似パターンを検索する(S714)。そして、画像処理部6は、検出した物体形状とサンプリングパターンとの類似性を既知の方法で検証し、予め設定した基準以上に類似するパターンが存在すれば、このサンプリングパターンを適応する。そして、画像処理部6は、この類似パターンに対応する物体の種類を読み出し、物体の種類を限定する。例えば、図8に示す場合であれば、サンプリングパターンが人の形状であるので、類似パターンが存在すれば、検知物体は、この類似パターンに対応した人であると判断する(S715→S716)。なお、ここで、類似となるサンプリングパターンが複数存在する場合には、これらの中から最も類似のサンプリングパターンを選択する。
Next, the
一方、画像処理部6は、全てのサンプリングパターン301〜303と検知物体に基づく形状との類似性が、前記所定の基準に達しなければ、検知された低反射体が人ではないと判断する(S715→S717)。そして、例えば、このように人として判断されない低反射体は、例えば、道路上に存在する障害物であると判断する。
On the other hand, if the similarity between all the
そして、画像処理部6は、このように判断した物体の検出結果を、物体検出装置が搭載される上位システムに出力する(S718)。
Then, the
なお、このような人の判別については、前述のように中反射体と低反射体とを判別し、例えば、中反射体として大人のサンプリングパターンを用い、低反射体として子供のサンプリングパターンを用いるようにして、個体識別処理を行ってもよい。 As for the discrimination of such a person, as described above, the middle reflector and the low reflector are discriminated. For example, an adult sampling pattern is used as the middle reflector, and a child sampling pattern is used as the low reflector. In this way, the individual identification process may be performed.
このような処理を行うことで、物体の属性(本実施形態であれば反射強度)に準じて、物体を所定の種類に分別しておき、各属性で固有のマッチング処理を行って、物体の個体識別を行う。これにより、属性毎にマッチング処理領域を一意に設定することができ、且つ、属性毎に個別のマッチングサンプルパターンを読み出せばよいので、マッチング処理を簡素化且つ高速化することができる。 By performing such processing, according to the attribute of the object (in this embodiment, the reflection intensity), the object is classified into a predetermined type, and a unique matching process is performed for each attribute, so that the individual object Identify. As a result, the matching processing area can be uniquely set for each attribute, and an individual matching sample pattern can be read for each attribute, so that the matching processing can be simplified and speeded up.
次に、第2の実施形態の係る物体検出装置について、図9、図10を参照して説明する。
第1の実施形態では、属性判別の際に、距離に依存することのない閾値を用いた例を示したが、本実施形態の物体検出装置は、距離に応じて設定された閾値を用いたものである。
図9は属性判別の処理フローを示すフローチャートであり、(A)は属性と高反射体と低反射体との2種類に判別する場合を示し、(B)は属性を高反射体、中反射体、および低反射体の3種類に判別する場合を示す。
図10は属性判別の反射光量閾値THnの設定概念を説明する図であり、(A)は属性と高反射体と低反射体との2種類に判別する閾値THn0を示し、(B)は属性を高反射体、中反射体、および低反射体の3種類に判別する第1閾値THn1、第2閾値THn2を示す。なお、図10において、太実線が高反射体の反射光量特性曲線を示し、中実線が中反射体の反射光量特性曲線を示し、細実線が低反射体の反射光量特性曲線を示す。
Next, an object detection apparatus according to a second embodiment will be described with reference to FIGS.
In the first embodiment, an example in which a threshold value that does not depend on the distance is used for attribute determination has been described. However, the object detection device of the present embodiment uses a threshold value that is set according to the distance. Is.
FIG. 9 is a flowchart showing a process flow of attribute discrimination. FIG. 9A shows a case where the attribute is discriminated into two types, that is, a high reflector and a low reflector, and FIG. The case where it discriminate | determines in three types, a body and a low reflector is shown.
FIG. 10 is a diagram for explaining the concept of setting the reflected light amount threshold THn for attribute discrimination. FIG. 10A shows the threshold THn0 for discriminating into two types of attribute, high reflector, and low reflector, and FIG. The first threshold value THn1 and the second threshold value THn2 are shown for discriminating into three types of high reflectors, medium reflectors, and low reflectors. In FIG. 10, the thick solid line shows the reflected light amount characteristic curve of the high reflector, the solid solid line shows the reflected light amount characteristic curve of the medium reflector, and the thin solid line shows the reflected light amount characteristic curve of the low reflector.
(1)属性を高反射体と低反射体との2種類に判別する場合(図9(A)参照)
属性検出部3は、物体検知データを受け付けると、距離と反射光量データとを読み出し、該当する距離における反射光量閾値THn0と比較する(S411→S412→S413)。ここで、反射光量閾値THn0は、図10(A)に示すように、高反射体の反射光量と低反射体の反射光量とが、どの距離を選択しても非常にかけ離れていることを利用して予め設定される。すなわち、各距離における高反射体の反射光量と低反射体の反射光量との間の適当な反射光量、例えば、該当する距離における高反射体の反射光量と低反射体の反射光量との中間値を、反射光量閾値THn0に設定する。
(1) When discriminating the attribute into two types, a high reflector and a low reflector (see FIG. 9A)
Upon receiving the object detection data, the
属性検出部3は、検知した反射光量データが対応する距離での閾値THn0よりも大きければ、検知物体を高反射体と判別する(S413→S414)。一方、属性検出部3は、検知した反射光量が対応する距離での閾値THn0よりも小さければ、検知物体を低反射体と判別する(S413→S415)。
If the detected reflected light amount data is larger than the threshold THn0 at the corresponding distance, the
(2)属性を高反射体、中反射体、低反射体の3種類に判別する場合(図9(B)参照)
属性検出部3は、物体検知データを受け付けると、距離と反射光量データとを読み出し、該当する距離における反射光量第1閾値THn1と比較する(S411→S412→S416)。ここで、反射光量第1閾値TH1は、図10(B)に示すように、高反射体の反射光量と中反射体の反射光量とが、どの距離を選択しても非常にかけ離れていることを利用して予め設定される。すなわち、各距離における高反射体の反射光量と中反射体の反射光量との間の適当な反射光量、例えば、これら高反射体の反射光量の最低値と中反射体の反射光量の最高値との中間値を、反射光量第1閾値THn1に設定する。
(2) When distinguishing three types of attributes: high reflector, medium reflector, and low reflector (see FIG. 9B)
Upon receiving the object detection data, the
属性検出部3は、検知した反射光量データが第1閾値THn1よりも大きければ、検知物体を高反射体と判別する(S416→S414)。一方、属性検出部3は、検知した反射光量が第1閾値THn1よりも小さければ、検知物体を高反射体ではないと判別し、次の判別処理を行う(S416→S417)。
If the detected reflected light amount data is larger than the first threshold value THn1, the
次に、属性検出部3は、反射光量データを、予め設定しておいた反射光量第2閾値THn2と比較する。ここで、反射光量第2閾値THn2は、図10(B)に示すように、中反射体の反射光量と低反射体の反射光量とが、どの距離を選択しても非常にかけ離れていることを利用して予め設定される。すなわち、各距離における中反射体の反射光量と低反射体の反射光量との間の適当な反射光量、例えば、これら中反射体の反射光量と低反射体の反射光量との中間値を、反射光量第2閾値THn2に設定する。
Next, the
属性検出部3は、反射光量データが対応する距離での第2閾値THn2よりも大きければ、検知物体を中反射体と判別する(S417→S418)。一方、属性検出部3は、検知した反射光量が対応する距離での第2閾値THn2よりも小さければ、検知物体を低反射体と判別する(S417→S419)。
If the reflected light amount data is greater than the second threshold value THn2 at the corresponding distance, the
このような処理方法であっても、第1の実施形態と同様の効果を奏することができる。さらに、本実施形態の処理方法を用いることで、高反射体の反射光量の最低値(観測し得る最遠方からの反射光量)が低反射体や中反射体の反射光量の最高値(観測し得る最近傍の反射光量)よりも小さくなるような場合であっても、確実に高反射体と中反射体または低反射体とを判別することができる。 Even with such a processing method, the same effects as those of the first embodiment can be obtained. Furthermore, by using the processing method of the present embodiment, the lowest value of the reflected light amount of the high reflector (the amount of reflected light from the farthest possible observation) is the highest value of the reflected light amount of the low reflector and the middle reflector (observed). Even if it is smaller than the nearest reflected light amount to be obtained, it is possible to reliably discriminate between a high reflector and a medium reflector or a low reflector.
次に、第3の実施形態に係る物体検出装置について、図11、図12を参照して説明する。
第1、第2の実施形態では、属性判別の際に、光量を判別の基準にした例を示したが、本実施形態の物体検出装置は、距離や光量のバラツキに応じて設定された閾値を用いたものである。なお、本実施形態で示す属性判別フローは、第1の実施形態に示したように、高反射体と非高反射体とに属性判別をした後に、非高反射体を、中反射体と低反射体とに属性判別する場合を示す。
図11は属性判別の処理フローを示すフローチャートであり、(A)は属性と高反射体と低反射体との2種類に判別する場合を示し、(B)は属性を高反射体、中反射体、および低反射体の3種類に判別する場合を示す。
図12(A)は属性判別の反射光量バラツキ閾値σL0の設定概念を説明する図であり、(B)は属性判別の距離バラツキ閾値σD0の設定概念を説明する図である。なお、図12において、中実線が中反射体のバラツキ特性曲線を示し、細実線が低反射体のバラツキ特性曲線を示す。
Next, an object detection apparatus according to a third embodiment will be described with reference to FIGS.
In the first and second embodiments, the example in which the light quantity is used as a reference for the attribute determination is shown. However, the object detection apparatus according to the present embodiment has a threshold value set according to the variation in the distance and the light quantity. Is used. As shown in the first embodiment, the attribute determination flow shown in the present embodiment is performed after the attribute determination is performed on the high reflector and the non-high reflector, and then the non-high reflector is changed from the medium reflector to the low reflector. The case where the attribute is discriminated from the reflector is shown.
FIG. 11 is a flowchart showing a process flow of attribute discrimination. FIG. 11A shows a case of discriminating into two types of an attribute, a high reflector, and a low reflector, and FIG. The case where it discriminate | determines in three types, a body and a low reflector is shown.
12A is a diagram for explaining the setting concept of the reflected light amount variation threshold value σL0 for attribute discrimination, and FIG. 12B is a diagram for explaining the setting concept of the distance variation threshold value σD0 for attribute discrimination. In FIG. 12, a solid line indicates a variation characteristic curve of the medium reflector, and a thin solid line indicates a variation characteristic curve of the low reflector.
中反射体と低反射体とは、前述の例に示したように、ともに人や物であることが多い。このため、中反射体と低反射体とで反射光量の差が大きくなかったり、同じ物体に対して測定回毎に得られる反射光量のバラツキが大きくなる傾向がある。さらに、反射光量が低いことで、算出される距離にもバラツキが生じる。しかしながら、中反射体と低反射体とを比較すれば、低反射体の方が、反射光量のバラツキ、距離のバラツキとも大きくなる傾向にあるので、本実施形態では、この特性を利用して、中反射体と低反射体とを判別する。 The medium reflector and the low reflector are often people or objects as shown in the above example. For this reason, there is a tendency that the difference in the amount of reflected light between the medium reflector and the low reflector is not large, or that the amount of reflected light obtained for each measurement on the same object varies greatly. Furthermore, since the amount of reflected light is low, the calculated distance also varies. However, when comparing the medium reflector and the low reflector, the low reflector tends to increase both in the amount of reflected light and in the distance, so in this embodiment, using this characteristic, Discriminate between medium reflector and low reflector.
(1)反射光量バラツキにより中反射体と低反射体とを判別する場合(図11(A)参照)
属性検出部3は、反射光量データを取得すると、方位方向を確認して、同じ方位方向の反射光量データを所定時間(複数走査分)に亘って蓄積する(S421)。属性検出部3は、これら反射光量データを用いて、反射光量バラツキデータσLを算出し、予め設定しておいた反射光量バラツキ閾値σL0と比較する(S422→S423)。ここで、反射光量バラツキ閾値σL0は、図12(A)に示すように、中反射体の反射光量バラツキの取り得るデータ領域と低反射体の反射光量バラツキの取り得るデータ領域とが、距離に関係なく重なり合わないことを利用して設定する。すなわち、低反射体の反射光量バラツキの最低値と中反射体の反射光量バラツキの最高値との間の適当な反射光量バラツキ、例えば、これら低反射体の反射光量バラツキの最低値と中反射体の反射光量バラツキの最高値との中間値を、反射光量バラツキ閾値σL0に設定する。
(1) When discriminating between a medium reflector and a low reflector based on variations in the amount of reflected light (see FIG. 11A)
When acquiring the reflected light amount data, the
そして、属性検出部3は、検知した反射光量バラツキデータσLが閾値σL0よりも小さければ、検知物体を中反射体と判別する(S423→S424)。一方、属性検出部3は、検知した反射光量バラツキσLが閾値σL0よりも大きれば、検知物体を低反射体と判別する(S423→S425)。
If the detected reflected light amount variation data σL is smaller than the threshold σL0, the
(2)距離バラツキにより中反射体と低反射体とを判別する場合(図11(B)参照)
属性検出部3は、物体検知データの距離データを取得すると、方位方向を確認して、同じ方位方向の距離データを所定時間(複数走査分)に亘って蓄積する(S431)。属性検出部3は、これら距離データを用いて、距離バラツキデータσDを算出し、予め設定しておいた距離バラツキ閾値σD0と比較する(S432→S433)。ここで、距離バラツキ閾値σD0は、図12(B)に示すように、中反射体による距離バラツキの取り得るデータ領域と低反射体による距離バラツキの取り得るデータ領域とが、距離に関係なく重なり合わないことを利用して設定する。すなわち、低反射体の距離バラツキの最低値と中反射体の距離バラツキの最高値との間の適当な距離バラツキ、例えば、これら低反射体の距離バラツキの最低値と中反射体の距離バラツキの最高値との中間値を、距離バラツキ閾値σD0に設定する。
(2) When discriminating between the medium reflector and the low reflector based on the distance variation (see FIG. 11B)
When obtaining the distance data of the object detection data, the
そして、属性検出部3は、検知した距離バラツキデータσDが閾値σD0よりも小さければ、検知物体を中反射体と判別する(S433→S434)。一方、属性検出部3は、検知した距離バラツキσDが閾値σD0よりも大きれば、検知物体を低反射体と判別する(S433→S435)。
If the detected distance variation data σD is smaller than the threshold σD0, the
このような処理を行っても、前述の各実施形態と同様の効果を奏することができる。さらに、本実施形態の処理を行うことで、単に反射光量のみでは判別しにくい属性同士であっても、確実に属性判別することができる。 Even if such processing is performed, the same effects as those of the above-described embodiments can be obtained. Furthermore, by performing the processing of the present embodiment, it is possible to reliably discriminate between attributes that are difficult to discriminate with only the amount of reflected light.
なお、本実施形態では、中反射体と低反射体とをバラツキ特性に基づいて判別する例を示したが、高反射体を含む場合でも同様に属性判別を行うことができる。すなわち、バラツキ特性のみで、高反射体、中反射体、低反射体の属性判別を行うこともできる。
また、前述の説明では、レーダ信号処理部2と属性検出部3とをレーザレーダ装置7に組み込んだ場合を示したが、画像処理装置8の機能をレーザレーダ装置7に組み込むようにしても良く、逆に、レーザレーダ装置7の機能を画像処理装置8に組み込むようにしても良い。
さらには、レーザレーダ装置7の属性検出部3のみを画像処理装置8に組み込むようにしても良い。すなわち、レーザレーダ装置7は物体の検知(物体の位置や距離の検知)のみを行うものとし、検知した物体の前述の属性検出は画像処理装置8で行うようにしても良い。
In the present embodiment, an example is shown in which the medium reflector and the low reflector are discriminated based on the variation characteristics. However, even when the high reflector is included, the attribute discrimination can be performed similarly. That is, it is possible to perform attribute discrimination of the high reflector, the medium reflector, and the low reflector only by the variation characteristic.
In the above description, the case where the radar
Furthermore, only the
また、前述の説明では、レーダ装置として、レーザレーダを例に示したが、他の方式(パルスドップラやFMCW等)のレーダ装置を用いても良く、さらには、検知領域内に存在する物体からの反射光を利用して三角測距を行う装置を用いても良い。
また、前述の説明では、検知した物体の種類(個体識別)、形状を同定する例を示したが、これらが分かることで、それぞれの種類の物体を計数することもできる。例えば、自車前方に自動車が何台走行しているとか、何人の人がいるとかを認識することができる。
In the above description, the laser radar is shown as an example of the radar apparatus. However, a radar apparatus of another method (pulse Doppler, FMCW, etc.) may be used, and further, from an object existing in the detection area. A device that performs triangulation using the reflected light may be used.
In the above description, an example is shown in which the type (individual identification) and shape of the detected object are identified. By knowing these, it is possible to count each type of object. For example, it is possible to recognize how many cars are traveling in front of the vehicle and how many people are present.
1−レーダアンテナ、2−レーダ信号処理部、3−属性検出部、4−CCDカメラ、5−画像データ生成部、6−画像処理部、7−レーザレーダ装置、8−画像処理装置 1-radar antenna, 2-radar signal processor, 3-attribute detector, 4-CCD camera, 5-image data generator, 6-image processor, 7-laser radar device, 8-image processor
Claims (5)
前記取得した距離と反射強度とに基づいて前記物体の属性を判別する属性判別手段と、
を備えたことを特徴とする物体検出装置。 Position information acquisition means for acquiring a reflection intensity by reflection of an object in the detection region and at least a distance of the object;
Attribute determining means for determining an attribute of the object based on the acquired distance and reflection intensity;
An object detection apparatus comprising:
前記検知された物体を前記画像データに対応させて属性毎に異なる画像処理を行い、前記物体の個体識別を行う個体識別手段と、
を備えた請求項1または請求項2に記載の物体検出装置。 Imaging means for imaging the detection area and generating image data;
An individual identification unit that performs individual image processing for each attribute in association with the detected object corresponding to the image data, and performs individual identification of the object;
The object detection apparatus according to claim 1 or 2, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005302694A JP2007114831A (en) | 2005-10-18 | 2005-10-18 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005302694A JP2007114831A (en) | 2005-10-18 | 2005-10-18 | Object detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007114831A true JP2007114831A (en) | 2007-05-10 |
Family
ID=38096977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005302694A Pending JP2007114831A (en) | 2005-10-18 | 2005-10-18 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007114831A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009282592A (en) * | 2008-05-20 | 2009-12-03 | Hitachi Ltd | Vehicular outside world recognition device and vehicle system |
JP4461199B1 (en) * | 2009-09-24 | 2010-05-12 | 北陽電機株式会社 | Distance measuring device |
JP2010164440A (en) * | 2009-01-16 | 2010-07-29 | Stanley Electric Co Ltd | Distance image processing device and photographing device |
WO2010119860A1 (en) * | 2009-04-14 | 2010-10-21 | 日立オートモティブシステムズ株式会社 | External environment recognition device for vehicle and vehicle system using same |
JP2016090268A (en) * | 2014-10-30 | 2016-05-23 | 株式会社デンソー | In-vehicle time-of-flight optical ranging device |
JP2017138219A (en) * | 2016-02-04 | 2017-08-10 | 株式会社デンソー | Object recognition device |
GB2560799A (en) * | 2017-01-23 | 2018-09-26 | Ford Global Tech Llc | Sign recognition for autonomous vehicles |
KR20190060346A (en) * | 2017-11-24 | 2019-06-03 | 현대자동차주식회사 | System and Method for controlling active hood of vehicle |
JP2019144230A (en) * | 2017-12-29 | 2019-08-29 | アクシス アーベー | Laser ranging and illumination |
CN112215867A (en) * | 2020-10-23 | 2021-01-12 | 劢微机器人科技(深圳)有限公司 | Point cloud data segmentation method, point cloud data segmentation equipment, storage medium and device |
JP2021063808A (en) * | 2019-10-15 | 2021-04-22 | ジック アーゲー | Distance measurement type photoelectric sensor and target detection method |
JP7317732B2 (en) | 2020-01-20 | 2023-07-31 | 株式会社東芝 | Estimation device, object transport system, estimation method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10105891A (en) * | 1996-09-30 | 1998-04-24 | Mazda Motor Corp | Moving object recognizing device for vehicle |
JP2004191131A (en) * | 2002-12-10 | 2004-07-08 | Denso Corp | Method of, system for, and program for discriminating target |
JP2005141517A (en) * | 2003-11-07 | 2005-06-02 | Daihatsu Motor Co Ltd | Vehicle detecting method and device |
-
2005
- 2005-10-18 JP JP2005302694A patent/JP2007114831A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10105891A (en) * | 1996-09-30 | 1998-04-24 | Mazda Motor Corp | Moving object recognizing device for vehicle |
JP2004191131A (en) * | 2002-12-10 | 2004-07-08 | Denso Corp | Method of, system for, and program for discriminating target |
JP2005141517A (en) * | 2003-11-07 | 2005-06-02 | Daihatsu Motor Co Ltd | Vehicle detecting method and device |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009282592A (en) * | 2008-05-20 | 2009-12-03 | Hitachi Ltd | Vehicular outside world recognition device and vehicle system |
JP2010164440A (en) * | 2009-01-16 | 2010-07-29 | Stanley Electric Co Ltd | Distance image processing device and photographing device |
WO2010119860A1 (en) * | 2009-04-14 | 2010-10-21 | 日立オートモティブシステムズ株式会社 | External environment recognition device for vehicle and vehicle system using same |
JP2010250501A (en) * | 2009-04-14 | 2010-11-04 | Hitachi Automotive Systems Ltd | External environment recognition device for vehicle and vehicle system using the same |
US8924140B2 (en) | 2009-04-14 | 2014-12-30 | Hitachi, Ltd. | External environment recognition device for vehicle and vehicle system using same |
JP4461199B1 (en) * | 2009-09-24 | 2010-05-12 | 北陽電機株式会社 | Distance measuring device |
JP2011069671A (en) * | 2009-09-24 | 2011-04-07 | Hokuyo Automatic Co | Distance measuring apparatus |
JP2016090268A (en) * | 2014-10-30 | 2016-05-23 | 株式会社デンソー | In-vehicle time-of-flight optical ranging device |
JP2017138219A (en) * | 2016-02-04 | 2017-08-10 | 株式会社デンソー | Object recognition device |
GB2560799A (en) * | 2017-01-23 | 2018-09-26 | Ford Global Tech Llc | Sign recognition for autonomous vehicles |
KR20190060346A (en) * | 2017-11-24 | 2019-06-03 | 현대자동차주식회사 | System and Method for controlling active hood of vehicle |
KR102496648B1 (en) * | 2017-11-24 | 2023-02-07 | 현대자동차주식회사 | System and Method for controlling active hood of vehicle |
JP2019144230A (en) * | 2017-12-29 | 2019-08-29 | アクシス アーベー | Laser ranging and illumination |
JP2021063808A (en) * | 2019-10-15 | 2021-04-22 | ジック アーゲー | Distance measurement type photoelectric sensor and target detection method |
JP7062739B2 (en) | 2019-10-15 | 2022-05-06 | ジック アーゲー | Distance measurement type photoelectric sensor and target detection method |
JP7317732B2 (en) | 2020-01-20 | 2023-07-31 | 株式会社東芝 | Estimation device, object transport system, estimation method, and program |
CN112215867A (en) * | 2020-10-23 | 2021-01-12 | 劢微机器人科技(深圳)有限公司 | Point cloud data segmentation method, point cloud data segmentation equipment, storage medium and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007114831A (en) | Object detection device | |
JP7065410B2 (en) | Empty parking space detection device and empty parking space detection method | |
JP5145986B2 (en) | Object detection apparatus and distance measuring method | |
JP3669205B2 (en) | Obstacle recognition device | |
JP6795027B2 (en) | Information processing equipment, object recognition equipment, device control systems, moving objects, image processing methods and programs | |
JP5145585B2 (en) | Target detection device | |
JP5407898B2 (en) | Object detection apparatus and program | |
JP6358552B2 (en) | Image recognition apparatus and image recognition method | |
JP2004112144A (en) | Front car tracking system and method for tracking front car | |
JP2015143979A (en) | Image processor, image processing method, program, and image processing system | |
JP2000357233A (en) | Body recognition device | |
JP2001004368A (en) | Object recognizing apparatus | |
JP6782433B2 (en) | Image recognition device | |
JPH07129898A (en) | Obstacle detecting device | |
JP2001134771A (en) | Object recognizing device | |
JP2007240314A (en) | Object detector | |
JP2001052171A (en) | Surrounding environment recognizing device | |
JP4102885B2 (en) | Parked vehicle detection method and parked vehicle detection system | |
WO2020196513A1 (en) | Object detection device | |
JP2000266539A (en) | Inter-vehicle distance measuring apparatus | |
JP6596889B2 (en) | Object detection device | |
JP2011027595A (en) | Map data verification system | |
CN110954912B (en) | Method and apparatus for optical distance measurement | |
JP2010020476A (en) | Object detection device and object detection method | |
JP5488805B2 (en) | Laser sensor and detection target determination method using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101012 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20101012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110419 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110823 |