JP2011027457A - Object detecting device, information processing method and information processing system - Google Patents
Object detecting device, information processing method and information processing system Download PDFInfo
- Publication number
- JP2011027457A JP2011027457A JP2009171014A JP2009171014A JP2011027457A JP 2011027457 A JP2011027457 A JP 2011027457A JP 2009171014 A JP2009171014 A JP 2009171014A JP 2009171014 A JP2009171014 A JP 2009171014A JP 2011027457 A JP2011027457 A JP 2011027457A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- information
- image
- radar
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、レーダ装置により検出した物体情報と画像情報を用いて車両制御を行う技術に関する。 The present invention relates to a technique for performing vehicle control using object information and image information detected by a radar apparatus.
一般に、レーダ装置はアンテナから送信した電波などの信号が車外の物体からはね返り、そのはね返った信号をアンテナが受信する。アンテナから送信した信号とアンテナで受信した信号との時間差とドップラーシフトの情報に基づいて、車両と車外の物体間の距離と、車両からみた物体の速度と、車両からみた車外の物体の角度と、車外の物体から受信した受信波の反射強度とを検出できる。 In general, in a radar apparatus, a signal such as a radio wave transmitted from an antenna rebounds from an object outside the vehicle, and the antenna receives the rebounded signal. Based on the time difference between the signal transmitted from the antenna and the signal received by the antenna and the Doppler shift information, the distance between the vehicle and the object outside the vehicle, the speed of the object viewed from the vehicle, the angle of the object outside the vehicle viewed from the vehicle, and The reflection intensity of the received wave received from the object outside the vehicle can be detected.
しかし、レーダ装置のみを用いて物体を検出する場合、物体から跳ね返った受信波の情報とノイズの情報とを区別するために所定の閾値を設定し、閾値を超える反射強度を有する信号を物体として検出する。その結果、反射強度が強い車両やガードレールなどの物体の検出は可能であるが、反射強度が弱い人を検出することは難しいという問題がある。そのため、反射強度が弱い人を検出するためには、物体を検出するための閾値を下げる必要があるが、閾値を下げた場合、ノイズの情報も物体として検出してしまい、誤った車両制御を行うという問題があった。 However, when detecting an object using only a radar device, a predetermined threshold is set to distinguish received wave information bounced from the object and noise information, and a signal having a reflection intensity exceeding the threshold is set as the object. To detect. As a result, it is possible to detect an object such as a vehicle or a guardrail with high reflection intensity, but there is a problem that it is difficult to detect a person with low reflection intensity. Therefore, in order to detect a person with low reflection intensity, it is necessary to lower the threshold for detecting an object. However, if the threshold is lowered, noise information is also detected as an object, and erroneous vehicle control is performed. There was a problem of doing.
また、車両にカメラを備えた画像処理装置を搭載して、カメラで撮影した1フレームごとの画像情報を走査して画像中の物体の種類を判別する技術がある。 In addition, there is a technique in which an image processing apparatus including a camera is mounted on a vehicle, and image information for each frame captured by the camera is scanned to determine the type of object in the image.
カメラを備えた画像処理装置のみにより物体を検出する場合、物体の種類の判別は可能であっても、相対速度の検出はできないことから、車両と物体とが衝突するまでの時間を検出することができず、衝突を回避する車両制御を行うことが困難であった。また、1フレームごとに画像の全領域について車両制御の対象となる物体を検出するための走査処理を行う必要があることから、車両に搭載されて画像の物体の種類判定を行う電子制御装置のCPUの処理負荷が大きくなり、迅速な車両制御ができないという問題があった。 When an object is detected only by an image processing device equipped with a camera, even if the type of object can be determined, the relative speed cannot be detected, so the time until the vehicle and the object collide is detected. It was difficult to perform vehicle control to avoid a collision. In addition, since it is necessary to perform scanning processing for detecting an object to be subjected to vehicle control for the entire area of the image for each frame, an electronic control device that is mounted on a vehicle and determines the type of an object in the image. There has been a problem that the processing load of the CPU becomes large and quick vehicle control cannot be performed.
このようなレーダ装置のみを用いた場合、または、カメラのみを用いた場合の問題を解決するために、レーダ装置とカメラを備えた画像処理装置とを組み合わせて、車外の物体の距離、角度、相対速度、および、物体の種類を判別して、車両と物体との衝突を回避する車両制御を行う技術がある。 In order to solve the problem in the case of using only such a radar device or in the case of using only a camera, the distance, angle, and distance of an object outside the vehicle are combined with a radar device and an image processing device equipped with a camera. There is a technique for performing vehicle control that discriminates the relative speed and the type of an object and avoids a collision between the vehicle and the object.
また、レーダ装置と画像処理装置との情報を組み合わせて画像処理を行う場合、レーダ装置で検出した対象物の距離情報を用いて、カメラで撮影した画像処理範囲を限定する技術が開示されている(例えば、特許文献1参照。)。 In addition, when image processing is performed by combining information of a radar apparatus and an image processing apparatus, a technique for limiting an image processing range captured by a camera using distance information of an object detected by the radar apparatus is disclosed. (For example, refer to Patent Document 1).
しかしながら、レーダ装置とカメラを用いた画像処理装置とを組み合わせて物体を検出する場合でも、1フレームごとに画像の全領域について車両制御の対象となる物体を検出するための走査処理を行う必要があることから、電子制御装置のCPUの処理負荷が大きくなり、迅速な車両制御ができないという問題があった。 However, even when an object is detected by combining a radar apparatus and an image processing apparatus using a camera, it is necessary to perform a scanning process for detecting an object to be subjected to vehicle control for every region of the image for each frame. For this reason, there has been a problem that the processing load on the CPU of the electronic control device is increased and rapid vehicle control cannot be performed.
また、特許文献1記載の技術では、白線と車両を対象物とした場合に、1フレーム内の対象物の画像を含む所定範囲を画像処理の対象とすることで、画像処理負荷を軽減することについては記載されているものの、対象物の種類ごとにその対象物の大きさに応じて異なる範囲を画像処理することについては考慮されておらず、画像処理負荷が大きくなっていた。 In the technology described in Patent Document 1, when a white line and a vehicle are used as objects, the image processing load is reduced by setting a predetermined range including an image of the object in one frame as an object of image processing. Is described, however, image processing of different ranges depending on the size of the target object is not considered for each type of target object, and the image processing load is increased.
本発明は、上記課題に鑑みてなされたものであり、OLE_LINK1電子制御装置の画像処理負荷を軽減して車両制御を迅速に行う技術OLE_LINK1を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technology OLE_LINK1 that reduces the image processing load of the OLE_LINK1 electronic control device and performs vehicle control quickly.
上記課題を解決するため、請求項1の発明は、車両に設けられ前記車両外の物体の位置と速度を検出するレーダ装置からのレーダ情報と、前記車両に設けられ前記レーダ装置の検出範囲と重なる領域を撮像するカメラで得られた画像とに基づいて、前記車両外の検出対象を検出する物体検出装置であって、前記レーダ情報に基づいて、前記候補物体の種類を予測する予測手段と、前記レーダ情報に基づく前記検出対象の候補物体の前記画像中の座標を導出する導出手段と、前記画像中における前記候補物体の導出された座標の周辺の、当該候補物体の予測された種類に応じたサイズの領域を処理対象領域に設定する設定手段と、前記画像中の前記処理対象領域のみを対象に前記検出対象を検出する検出手段と、を有することを特徴とする物体検出装置。 In order to solve the above-described problem, the invention of claim 1 is directed to radar information from a radar device that is provided in a vehicle and detects the position and speed of an object outside the vehicle, and a detection range of the radar device that is provided in the vehicle. An object detection device that detects a detection target outside the vehicle based on an image obtained by a camera that captures an overlapping region, and a prediction unit that predicts the type of the candidate object based on the radar information; Deriving means for deriving the coordinates in the image of the candidate object to be detected based on the radar information, and the predicted type of the candidate object in the vicinity of the derived coordinates of the candidate object in the image An object comprising: setting means for setting a region having a size corresponding to the processing target region; and detecting means for detecting the detection target only for the processing target region in the image. Detection device.
また、請求項2の発明は、請求項1記載の物体検出装置において、前記検出手段は、前記処理対象領域から前記検出対象を検出するときに、当該処理対象領域に対応する前記候補物体の予測された種類に応じた判定手法を用いることを特徴とする物体検出装置。
The invention according to
また、請求項3の発明は、請求項1または2記載の物体検出装置において、前記車両の走行状況を示す走行情報を取得する取得手段と、前記走行情報に基づいて、前記レーダ情報に基づく前記候補物体の一部を処理対象として選択する手段、をさらに備えることを特徴とする物体検出装置。 According to a third aspect of the present invention, in the object detection device according to the first or second aspect, the acquisition unit that acquires the traveling information indicating the traveling state of the vehicle, and the radar information based on the traveling information. An object detection apparatus further comprising means for selecting a part of a candidate object as a processing target.
また、請求項4の発明は、請求項1乃至3のいずれか記載の物体検出装置において、前記導出手段、前記予測手段、前記設定手段、および、前記検出手段のうち少なくとも1の手段は、前記レーダ情報に基づく前記候補物体が複数あるとき、複数の前記候補物体のうちの前記車両との距離の近い順から処理対象とすることを特徴とする物体検出装置。 According to a fourth aspect of the present invention, in the object detection apparatus according to any one of the first to third aspects, at least one of the derivation unit, the prediction unit, the setting unit, and the detection unit is When there are a plurality of candidate objects based on radar information, the object detection apparatus is characterized in that a processing target is selected in order from the closest distance to the vehicle among the plurality of candidate objects.
また、請求項5の発明は、車両に設けられた前記車両外の物体の位置と相対速度を検出するレーダ装置からのレーダ情報と、前記車両に設けられ前記レーダ装置の検出範囲と重なる領域を撮像するカメラで得られた画像とに基づいて、前記車両外の検出対象を検出する物体検出方法であって、前記レーダ情報に基づいて、前記候補物体の種類を予測する工程と、前記レーダ情報に基づく前記検出対象との候補物体の前記画像中の座標を導出する工程と、前記画像中における前記候補物体の導出された座標の周辺の、当該候補物体の予測された種類に応じたサイズの領域を処理対象領域に設定する工程と、前記画像中の前記処理対象領域のみを対象に前記検出対象を検出する工程と、を有することを特徴とする物体検出方法。 According to a fifth aspect of the present invention, there is provided a radar information from a radar device that detects a position and a relative speed of an object outside the vehicle provided in the vehicle, and a region that overlaps a detection range of the radar device provided in the vehicle. An object detection method for detecting a detection target outside the vehicle based on an image obtained by an imaging camera, the step of predicting a type of the candidate object based on the radar information, and the radar information Deriving the coordinates in the image of the candidate object with the detection target based on, and the size of the candidate object in the size around the derived coordinates of the candidate object in the image according to the predicted type of the candidate object An object detection method comprising: setting a region as a processing target region; and detecting the detection target only for the processing target region in the image.
また、請求項6の発明は、物体検出システムであって、車両に設けられ前記車両外の物体の位置と速度を検出するレーダ装置と、前記車両に設けられ前記レーダ装置の検出範囲と重なる領域を撮像するカメラと、レーダ装置からのレーダ情報と、カメラで得られた画像とに基づいて、前記車両外の検出対象を検出する請求項1ないし4のいずれかに記載の物体検出装置と、を備えることを特徴とする物体検出システム。 According to a sixth aspect of the present invention, there is provided an object detection system comprising: a radar device provided in a vehicle for detecting a position and speed of an object outside the vehicle; and a region provided in the vehicle and overlapping a detection range of the radar device. The object detection device according to any one of claims 1 to 4, wherein a detection target outside the vehicle is detected based on a camera that captures the image, radar information from the radar device, and an image obtained by the camera. An object detection system comprising:
請求項1ないし6の発明によれば、電子制御装置が行う画像処理は検出対象とする物体が存在する画像領域に限定され、物体を検出する画像処理負荷を軽減するとともに、レーダ装置の処理を含めた物体検出システム全体の処理負荷の軽減が可能となる。また、電子制御装置の処理負荷軽減により、物体に対する車両制御を迅速に行うことができる。 According to the first to sixth aspects of the present invention, the image processing performed by the electronic control device is limited to the image region where the object to be detected exists, and the processing load of the radar device is reduced while reducing the image processing load for detecting the object. The processing load of the entire object detection system can be reduced. Moreover, the vehicle control with respect to the object can be quickly performed by reducing the processing load of the electronic control device.
また、特に請求項2の発明によれば、レーダ装置からの情報により予め物体の種類を予測することで、電子制御装置による物体の種類判定を何度もやり直す必要はなく物体の種類判定が迅速に行える。さらに、電子制御装置の処理負荷軽減により、物体に対する車両制御を迅速に行うことができる。 In particular, according to the second aspect of the present invention, it is not necessary to repeat the object type determination by the electronic control unit by predicting the object type in advance based on information from the radar device, so that the object type determination can be performed quickly. It can be done. Furthermore, the vehicle control on the object can be quickly performed by reducing the processing load of the electronic control unit.
また、特に請求項3の発明によれば、車両の走行状況を示す走行情報をレーダ装置の情報とあわせて用いることで、車両が走行する状況に応じて、処理対象とする候補物体を選択できる。これにより、電子制御装置の処理負荷が軽減されるとともに、車両の走行状態に応じた車両制御を迅速に行うことができる。
In particular, according to the invention of
また、特に請求項4の発明によれば、車両制御の対象となる可能性の高い物体から順に検出することができ、ドライバーなど車両の乗員の安全確保を迅速に行うことが可能となる。
In particular, according to the invention of
以下では、本発明の実施の形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[実施の形態1]
<1−1.構成>
図1は、車両1の全体図である。車両1には、本実施の形態の物体検出システムが備える要素として、レーダ装置2、画像処理装置3及び電子制御装置4が設けられている。レーダ装置2は、車両前方のフロント部分に設けられている。レーダ装置2は、車両1と車外の物体間の距離、および、車両1からみた車外の物体の角度(以下、「物体の位置」という。)、車両1からみた車外の物体の速度である車両1と車外の物体との相対速度、または、車外の物体の絶対速度(以下、「速度情報」という。)を検出する。なお、レーダ装置2の車両1への搭載位置は車両前方のフロント部分に限らず、車両1の後方や側方に設けても良い。
[Embodiment 1]
<1-1. Configuration>
FIG. 1 is an overall view of the vehicle 1. The vehicle 1 is provided with a
レーダ装置2は、アンテナから送信した電波などの信号(以下、「送信波」という。)が車外の物体に当たってはね返り、そのはね返った信号を受信する(以下、「受信波」という。)。この送信波と受信波の時間差とドップラーシフトの情報に基づいて、レーダ装置2は物体の位置、および、速度情報を検出する。レーダ装置2の物体検出範囲はR1の範囲である。
The
画像処理装置3は、車両1のOLE_LINK2フロントガラスの車室内天井付近OLE_LINK2に設けられている。画像処理装置3は、検出範囲C1を撮影して電子的に画像を取得するカメラを備えており、これらの範囲の撮影による得られる画像内の物体の位置や大きさを検出する。カメラを備えた画像処理装置3の車両1への搭載位置はフロントガラスの車室内天井付近限らず、車両の内外で後方や側方に設けても良い。
The
電子制御装置4は、車両1の車両本体内部に設けられている。電子制御装置4はレーダ装置2、および、画像処理装置3から得られた車外の物体の情報(物体の位置、速度情報、角度情報、物体から跳ね返ってレーダ装置2のアンテナが受信した受信波の反射強度、物体の画像上の位置、および、物体の大きさなど)を用いて車外の物体の種類を判定し、車外の物体と車両1との衝突の可能性に応じて車両制御を行う。
The
車両制御は車両1と車外の物体との衝突の危険性を警報によりドライバーなどの乗員に報知したり、衝突前に運転操作に自動的に介入して、ブレーキをかけたり、ステアリングを所定の方向に操作することで、車外の物体との衝突を避ける。また、シートベルト5を矢印方向に自動的に引いて衝突時にドライバーなどの乗員の体を固定したり、衝突時にヘッドレスト6を矢印方向に移動させて衝突の衝撃を緩和し、ドライバーなどの乗員の安全を確保する車両制御もある。 Vehicle control notifies the driver and other passengers of the danger of a collision between the vehicle 1 and an object outside the vehicle, automatically intervenes in the driving operation before the collision, applies the brakes, or steers the steering in a predetermined direction. To avoid collisions with objects outside the vehicle. Also, the seat belt 5 is automatically pulled in the direction of the arrow to fix the body of the driver or other occupant during the collision, or the headrest 6 is moved in the direction of the arrow during the collision to alleviate the impact of the collision. There are also vehicle controls that ensure safety.
図2は、物体検出システム10のブロック図である。レーダ装置2はアンテナ12から送信波を出力し、車外の物体から跳ね返った受信波を受信する。レーダ制御部22は送信波を生成したり、アンテナ21が受信した受信波と送信波とをミキシングすることにより得られた送信波と受信波との時間差分とドップラーシフト分の情報をビート信号として算出する。レーダ制御部22は算出されたビート信号を高速フーリエ変換して車両1と車外の物体との距離情報と速度情報とを算出する。
FIG. 2 is a block diagram of the object detection system 10. The
ここで、レーダ装置2による物体検出の具体的な例として、図3及び図4を用いて説明する。図3はレーダ装置とカメラとを備えた画像処理装置3の物体検出範囲を示した図であり、図4は物体の情報を周波数とパワーで表した図である。
Here, a specific example of object detection by the
図3に示すようにレーダ装置2の検出範囲R1の中には、マンホール101、人102、対向車両103、および、遠方車両104がある。車両1との距離は近い順番からマンホール101、人102、対向車両103、遠方車両104である。これらの101から104の物体の情報を周波数とパワーで表したものが図4の図となる。図4の物体の情報を周波数とパワーで表した図は、横軸を周波数、縦軸をパワーとする表の中に物体の検出結果が表示されている。横軸の周波数は車両1と物体との距離を示すものであり、周波数が高くなるにつれて車両1と物体との距離は離れていることとなる。
As shown in FIG. 3, the
また、縦軸のパワーは、物体からの受信波の反射強度を示すものである。したがって、車両など反射する面積が広く電波などの信号が跳ね返りやすい(表面の信号の反射率が高い)場合はパワーは強くなり、車両1からの距離が近いほどパワーは強くなる。また、反射する面積が狭く表面の反射率が低いほどパワーは弱くなり、車両1からの距離が遠いほどパワーは弱くなる。なお、図4の表の中で強弱様々な値を有する信号をピークという。 Further, the power on the vertical axis indicates the reflection intensity of the received wave from the object. Therefore, the power increases when the reflected area is large and a signal such as a radio wave is likely to rebound (the reflectance of the surface signal is high), and the power increases as the distance from the vehicle 1 decreases. Further, the power is weaker as the reflection area is smaller and the surface reflectance is lower, and the power is weaker as the distance from the vehicle 1 is farther. In the table of FIG. 4, signals having various values are called peaks.
このピークが図3の物体のいずれに対応しているのかをみると、マンホール101の物体の情報は、図4に示す複数のピークの中で所定の閾値hを越えて、かつ、車両1から最も近い距離にあるピークAに該当する。ここで、所定の閾値は検出物体の中で最も反射強度が弱くなる人を検出できる値としたものであり、閾値を超えないピークはノイズとみなして物体としての検出対象とはしない。
Looking at which of the objects in FIG. 3 corresponds to this peak, the information of the object in the
次にマンホール101の次に車両1から近い距離にある人102の物体情報は、図4のピークBに該当し、対向車両103はピークCに該当し、遠方車両104はピークDに該当する。ここで閾値hを超えて反射強度が人102と同じくらいの強度を有するピークNは図3の中のどの物体にも該当しない。人のように反射強度の弱い物体を検出するためには閾値hをできるだけ下げて、物体を検出するパワーの閾値hを超えるピークを物体の情報として抽出する必要があるが、パワーの閾値hを下げた結果、物体として存在しないものも物体の情報を有するピークとして抽出する可能性がある。このように本来存在しない物体の情報を物体が存在するものとして抽出した場合の処理については、後に述べる電子制御装置4による画像情報の処理により詳細に述べる。
Next, the object information of the
また、図4において、対向車両103に対応するピークC、及び、遠方車両104に対応するピークDに関しては、両方のピークともパワーの閾値hを超えており、ピークC、ピークDの順番に車両1からの距離が離れた状態となっている。
In FIG. 4, regarding the peak C corresponding to the
なお、車両1からみた各物体の角度については、アンテナ12を所定の角度(例えば最大振角30度)に振ってスキャンを行う方式の場合は、アンテナの振角と受信波を対応付けて物体の角度を算出する。アンテナ12を振らずにアンテナを所定の方向に固定したままスキャンを行う場合は、図4の各ピークごとに有している受信波の位相差情報から角度を算出する。
In addition, regarding the angle of each object viewed from the vehicle 1, in the case of scanning with the
次に図2に戻って、画像処理装置3および電子制御装置4の説明を行う。画像処理装置3はレーダ装置2の物体検出範囲R1と重なる範囲であるC1の範囲をカメラ13を用いて撮影する。カメラ13と電気的に接続されているカメラ制御部23は、後述する電子制御装置4の情報に基づいて、撮影した1フレームの画像の中から所定の画像範囲のみに係る画像を電子制御装置4へ送信する。
Next, returning to FIG. 2, the
電子制御装置4は、レーダ装置2および画像処理装置3からの情報を受信するCPU14と、このCPU14に電気的に接続されているメモリ24とを備えている。CPU14は、レーダ装置2および画像処理装置3からの物体の位置、速度情報、および、物体の種類などの情報を受けて、後述する警報器17、ブレーキ27、ステアリング37を操作した車両制御を行う。また、メモリ24には物体の種類を判別するための情報が記憶されている。物体の種類を判別する情報の例としては、画像における物体の大きさを判定するための物体各種のテンプレート情報などである。
The
電子制御装置4及び画像処理装置3が処理を行う画像の具体例を図3と図5とを用いて説明する。図5は、カメラを備えた画像処理装置3により取得された画像を示した図である。図3では画像処理装置3の撮影範囲であるC1の範囲内にはマンホール101、人102、対向車両103、および、遠方車両104がある。なお、レーダ装置2により検出され、図4のピークNとして説明したノイズは検出範囲には物体として存在しない。
Specific examples of images processed by the
画像処理装置3により撮影した画像には図5に示すように、マンホール101、人102、対向車両103、および、遠方車両104が存在している。そして、それぞれの物体の画像の位置には×印が付されている。これらの×印はレーダ装置2により検出された物体の情報に対応して付されており、個々の×印が車両1との距離情報、速度情報、角度情報、および、反射強度の情報を有しており、電子制御装置4は、これらのレーダ装置2の物体情報の中から、距離と角度情報に基づいてそれぞれの物体が1フレームの画像上のどの位置に対応しているかを判別する。また、電子制御装置4は、速度情報と反射強度の情報から、個々の物体の情報である×印が組み合わされてひとつの物体を構成しているか否かも判定し、組み合わせた範囲の大きさなどの情報から物体の種類を予測している。なお、画像の中では図4に示したノイズのピークNの情報も物体105として画像上に検出されている。
As shown in FIG. 5, the
物体の種類の予測の具体例としては、例えば、マンホール101の絶対速度がゼロで反射強度が比較的強く、絶対速度がゼロで反射強度が比較的強いという同じ性質を有する反射点が周辺にないことから、複数の反射点を有する物体ではないことが判別できる。電子制御装置4は、電子制御装置4内のメモリ24に予め記憶している物体の種類の判別情報からマンホール101の物体の種類をマンホールと予測する。
As a specific example of object type prediction, for example, the
また、相対速度が比較的小さく反射強度が比較的弱い反射点で、同じ性質を有する反射点が周辺にないことから、電子制御装置4は、メモリ24の情報により人102の物体の種類を人と予測する。相対速度が比較的大きく反射強度が比較的強い反射点があり、かつ、同じ性質を有する反射点が近傍領域に複数あるため、電子制御装置4は、対向車両103の物体の種類を車両と予測する。また、相対速度は一定であるが、反射強度は比較的強く、同じ性質を有する反射点が近傍領域に複数あるため、電子制御装置4は、遠方車両104の物体の種類を車両と予測する。
In addition, since there is no reflection point in the vicinity with a reflection point having a relatively low relative velocity and a relatively low reflection intensity, the
また、相対速度が比較的小さく反射強度が比較的弱い反射点で、同じ性質を有する反射点が周辺にないことから、電子制御装置4は、メモリ24の情報により物体105の物体の種類を人と予測する。
In addition, since there is no reflection point in the periphery with a reflection point having a relatively low relative velocity and a relatively low reflection intensity, the
このようにして電子制御装置4は、レーダ情報から物体の種類を推定し、その物体の種類に応じて、メモリ24に予め記憶している物体の種類の判別情報に応じたサイズの画像範囲を選択して、その選択した画像範囲の切り取りの指示を画像処理装置3に行う。例えば、推定した物体の種類が歩行者であれば比較的小さな縦長のサイズの領域が選択される。また、推定した物体の種類が車両であれば比較的大きな横長のサイズの領域が選択される。この切り取りの指示に応答して、画像処理装置3は、指定された画像範囲について切り取りを行う。また、物体の種類の判別パターンはこれまで説明した人や車両以外にも二輪車両、電柱、歩道橋、鉄橋など様々な物体の種類に応じた判別パターンをメモリ24に記憶させることができ、これら種類の異なる物体のサイズに応じた領域を選択可能である。
In this way, the
切り取られた画像は処理対象領域として画像処理装置3から電子制御装置4へ送信され、この処理対象領域のみを対象にして電子制御装置4により物体の種類判定のための画像認識が行われる。この際、当該処理対象領域を切り取る際に予測された物体の種類に応じた判定手法が用いられる。例えば、予測された物体の種類が人の場合の画像認識手法の例としては、レーダ情報に基づく候補物体の予測から人の大きさの画像範囲αを切り取り、その範囲を走査して画像の輝度の変化を検出する。所定の幅で輝度が変化していれば、その幅の大きさに該当する対象物を人と判別することができる。例えば、図5に示す物体102の場合では、中心軸LからX軸方向の左右対称に所定の幅を有していることから、当該物体の種類を人と判定することができる。一方で、同図に示す物体105の場合は、画像範囲βを切り取った画像を走査しても人の輝度変化にあたる画像の輝度の変化は検出されないことから、この判定結果により該当する物体の種類はなく、ノイズと判定する。
The cut image is transmitted as a processing target area from the
また、予測された物体の種類が車両の場合の判定方法としては画像の輝度の変化を検出したエッジの部分から別方向に画像の輝度を検出し、検出した方向の輝度の変化の幅の大きさから対象物を判別する手法がある。例えば、図5では画像範囲γのX軸方向の画像走査により点Pの画像の輝度変化が検出された場合、次に点PからX軸方向ではなくY軸方向に画像の輝度変化を検出することで、対向車両103の物体の種類を車両と判定する。
In addition, as a determination method when the predicted object type is a vehicle, the brightness of the image is detected in a different direction from the edge portion where the change in the brightness of the image is detected, and the width of the change in the brightness in the detected direction is large. There is a method for discriminating an object. For example, in FIG. 5, when a change in the brightness of the image at the point P is detected by scanning the image range γ in the X-axis direction, the change in the brightness of the image is detected from the point P in the Y-axis direction instead of the X-axis direction. Thus, the object type of the
さらに、予測された物体の種類が人及び車両の双方の場合に用いることが可能な手法として、画像を走査して走査した画像の輝度の変化の範囲を検出して、予めメモリ24に記憶している対象物の大きさと形状のテンプレートを当てはめることで、対象物の種類を判別する手法もある。例えば図5では画像範囲θに車両のテンプレートを遠方車両104に当てはめることで、遠方車両104の物体の種類を車両と判定している。
Further, as a technique that can be used when the type of the predicted object is both a person and a vehicle, the range of luminance change of the scanned image is detected and stored in the
<1−2.動作>
電子制御装置4の処理を図6に示すフローチャートを用いて説明する。電子制御装置4はレーダ装置2からレーダ情報を受信する(ステップS101)。レーダ情報は、検出対象の候補物体(以下、「候補物体」という。)が有する情報であり、車両1と車外の物体との距離情報、速度情報、角度情報、および、反射強度の情報である。
<1-2. Operation>
The processing of the
電子制御装置4はレーダ情報に含まれる車両と物体との距離情報に基づいて、複数の候補物体に対して車両1との距離が近い順に処理の優先順位付けを行う(ステップS102)。これは車両1との距離が近ければ、車両1との衝突可能性が高いと考えられることから、車両1のドライバーなどの乗員に対して早期の警告を行ったり、車両1の運転に介入するような車両制御を迅速に行う必要性があるためである。なお、本実施形態の優先順位付けは距離が比較的近い物体の優先順位を高く設定することを例としたが、速度情報を優先順位付けの要素として、例えば、相対速度が大きい順番に優先順位付けを行ったり、車両1との距離が比較的近く、かつ、相対速度が大きい候補物体の優先順位を高くするようにしてもよい。
Based on the distance information between the vehicle and the object included in the radar information, the
次に電子制御装置4は処理の優先順位の高い候補物体からその物体の種類を予測する(ステップS103)。具体的には、候補物体がそれぞれ有しているレーダ情報から物体の種類を予測するもので、例えば距離が比較的近くて、相対速度が比較的大きく、反射強度の比較的強いレーダ情報を有する候補物体は車両と予測する。なお、車両はレーダ装置2の送信波を車体複数の箇所で跳ね返すため、レーダ情報の中でもほぼ同一の距離、相対速度、および、反射強度を有するレーダ情報が近い領域に複数ある場合は、これらのレーダ情報を同一の物体を構成する複数の反射点として扱い、1つの物体を形成する反射点が多いほど大きな物体であるとして物体の種類の予測を行う。
Next, the
距離が近くても相対速度が比較的小さく、反射強度は弱く、反射点の数が少ない場合は人と予測する。また、反射強度が強い場合で、絶対速度がゼロの場合は反射点の数が少ない場合は、道路にある静止物(例えば、マンホールやガードレールなど)と予測する。 Even if the distance is short, the relative velocity is relatively small, the reflection intensity is weak, and if the number of reflection points is small, the person is predicted. When the reflection intensity is strong and the absolute speed is zero, if the number of reflection points is small, it is predicted that the object is a stationary object on the road (for example, a manhole or a guardrail).
電子制御装置4は、候補物体のレーダ情報と物体の種類の情報に基づいて、該当する候補物体が画像処理装置3にある1フレームの画像の中のどの座標に該当するかを算出する(ステップS104)。具体的には処理の優先順位の高い候補物体のレーダ情報の距離と角度の情報により、画像処理装置3により撮影された1フレームの画像の中の座標位置と候補物体とを対応させる。また、予測した物体の種類に応じて、その座標位置を基準とした1フレームの画像の中の所定の範囲を算出する。
Based on the radar information of the candidate object and the information on the type of the object, the
電子制御装置4は予測した物体の種類に応じた画像の座標情報を画像処理装置3に送信する(ステップS105)。画像の範囲の座標情報を受信した画像処理装置3は、カメラ13を用いて撮影した1フレームの物体の種類に応じたサイズの画像範囲を切り出して、電子制御装置4に送信する。例えば、予測した物体の種類が歩行者であれば比較的小さな縦長の領域が切り出される。また、予測した物体の種類が車両であれば比較的大きな横長の領域が切り出される。なお、物体の種類の判別パターンはこれまで説明した人や車両などの物体以外にも二輪車両、電柱、歩道橋、鉄橋など様々な物体の種類に応じた判別パターンをメモリ24に記憶させることができ、これら種類の異なる物体のサイズに応じた領域を選択して切り出すことが可能である。
The
電子制御装置4は画像処理装置3が送信した画像情報を処理対象領域として受信して(ステップS106)、受信した画像情報のみを対象に物体の種類判定を行う(ステップS107)。物体の種類の判定は、画像を走査判定して、対象画像の輝度の変化のある範囲を検出して、物体の種類を判定する。物体の種類の判定手法としては、処理対象領域に対応する物体の予測された種類に応じた判定手法を用いる。例えば、変化のある範囲の中心をとり、変化の範囲が対称性をみて物体の種類を判定する手法がある。また、所定の方向に走査して、変化がある点から交差する方向に走査方向を変更して、輝度の変化範囲に基づいて物体の種類を判定する手法がある。さらに、予めメモリ24に保存しているテンプレートを輝度が変化している画像の範囲に当てはめて、物体の種類を判定する手法がある。
The
また、気温・湿度の変化により画像センサが検出する信号のS/N比が悪化し、弱い光の輝度の検出が困難となる場合がある。そのため、気温や湿度の変化により画像の輝度を検出する閾値を所定の値に設定することもできる。 In addition, the S / N ratio of the signal detected by the image sensor may deteriorate due to changes in temperature and humidity, and it may be difficult to detect weak light luminance. Therefore, it is possible to set a threshold value for detecting the brightness of an image based on changes in temperature and humidity to a predetermined value.
物体の種類判定の結果、その物体が車両制御の対象物である場合(ステップS108がYes)は、警報器17からの警報による報知を行うか否かを判断する(ステップS109)。物体が車両制御の対象でない場合は、処理を終了する(ステップS108がNo)。
As a result of the object type determination, if the object is an object for vehicle control (step S108: Yes), it is determined whether or not notification by the alarm from the
警報による報知が必要な場合(ステップS109がYes)は、警報器17から警報を出力する(ステップS110)。警報は車室内に備えているナビゲーション装置から音声による警告を行ったり、映像による警告を行う。 When notification by an alarm is necessary (step S109 is Yes), an alarm is output from the alarm device 17 (step S110). As for the alarm, an audio warning is given from a navigation device provided in the passenger compartment, or a video warning is given.
警報を出力した後、または、警報による報知が必要ない場合(ステップS109がNo)は、運転介入が必要であるか否かを判断する(ステップS111)。運転介入が必要な場合(ステップS111がYes)は、ブレーキ27やステアリング37を自動的に操作して運転介入を行う(ステップS112)。運転介入の例としては、車外の物体に車両1が衝突する可能性が有る場合に、自動的にブレーキ27を操作して車両を停止させたり、物体が存在しない方向にステアリング37を自動的に操作するものがある。また、衝突前にシートベルト5を固定したり、ヘッドレスト6を固定したりすることで、衝突に備えて車両1のドライバーなどの乗員の安全を確保できる。
After outputting the alarm or when notification by the alarm is not necessary (No in Step S109), it is determined whether or not driving intervention is necessary (Step S111). When driving intervention is necessary (Yes in step S111), driving intervention is performed by automatically operating the
運転介入が必要でない場合(ステップS111がNo)は、処理を終了する。例えばドライバーの操作により車外の物体との衝突が避けられる場合である。 If no driving intervention is required (No at step S111), the process is terminated. For example, a collision with an object outside the vehicle can be avoided by a driver's operation.
以上のように本実施の形態の物体検出システム10においては、電子制御装置4が、レーダ情報に基づく検出対象の候補物体の画像中の座標を導出するとともに、レーダ情報に基づいて候補物体の種類が予測する。そして、電子制御装置4は、画像中における候補物体の導出された座標の周辺における候補物体の予測された種類に応じたサイズの領域を処理対象領域として指定し、その画像領域について画像処理装置3に切り出しを行わせる。この切り出された画像領域のみを対象に物体の検出処理がなされる。これにより、電子制御装置4のCPU14が行う画像処理は検出対象とする物体が存在する画像領域に限定され、物体の種類を判定する画像処理負荷を軽減する。また、レーダ装置を採用したことにより、それ自体に負荷がかかるが、画像処理領域を限定することによる画像処理負荷が大幅に減少することから、物体検出システム全体の処理負荷の軽減が可能となる。さらに、電子制御装置4のCPU14の処理負荷軽減により、車外の物体に対する車両制御を迅速に行うことができる。
As described above, in the object detection system 10 according to the present embodiment, the
また、レーダ装置2からの情報により予め物体の種類を予測して、電子制御装置4のCPU14による物体の種類判定において予測された種類に応じた判定手法を用いる。このため、物体の種類判定を何度もやり直す必要はなく物体の種類判定が迅速に行える。さらに、電子制御装置4のCPU14の処理負荷軽減により、物体に対する車両制御を迅速に行うことができる。
Further, the type of the object is predicted in advance based on the information from the
また、候補物体が複数あるときには、複数の候補物体のうち車両との距離の近い順から処理対象とするため、車両制御の対象となる可能性の高い物体から順に検出することができ、ドライバーなど乗員の安全確保を迅速に行うことが可能となる。 In addition, when there are a plurality of candidate objects, the processing objects are processed in order from the shortest distance to the vehicle among the plurality of candidate objects, so it is possible to detect from the object that is most likely to be the target of vehicle control, such as a driver. It is possible to ensure the safety of passengers quickly.
[実施の形態2]
<2−1.構成>
図7はナビゲーション装置と各種センサを備えた物体検出システムのブロック図であり、実施の形態1の図2に示したブロック図と主に異なる点は、ナビゲーション装置8と車速センサ19、ステアリングセンサ20、ヨーレートセンサ21の各種センサを新たに備えた点である。以下、実施の形態1に記載した動作内容は省略し、異なる動作内容について述べる。
[Embodiment 2]
<2-1. Configuration>
FIG. 7 is a block diagram of an object detection system including a navigation device and various sensors. The main difference from the block diagram shown in FIG. 2 of the first embodiment is that the
ナビゲーション装置8は、表示部18とナビゲーション制御部28を備えており、表示部18はドライバーなどの乗員に対して映像や音声で地図などのナビゲーション情報を通知したり、音楽やデジタルTVなどのオーディオコンテンツ情報を提供する。ナビゲーション制御部はこれらの情報をドライバーなどの乗員に提供するための制御を行う。
The
車速センサ19は車両の速度情報を電子制御装置4に送信する。ステアリングセンサ29は車両のステアリングの舵角を検出して電子制御装置4に送信する。ヨーレートセンサ39は車両1の車体の向きの変化を角速度で検出して電子制御装置4に送信する。電子制御装置4はこれらの車両の走行状態に応じて、車両制御の対象とする候補物体の検出を行う。
The
次にナビゲーション装置8および各種センサを用いて行う候補物体検出の具体例について、図8のカーブでのレーダ装置とカメラを備えた画像処理装置による物体検出範囲を示した図、および、図9のカーブでのカメラを備えた画像処理装置による物体検出の画像を示した図を用いて説明する。
Next, for a specific example of candidate object detection performed using the
図8では車両1に備えられたレーダ装置2の物体検出範囲R1とカメラを備えた画像処理装置3のC1、C2の物体検出範囲が重なっている。レーダ装置2および画像処理装置3の物体検出範囲には人201とガードレール202が候補物体として入っている。ここで、車両1に備えられたナビゲーション装置4は車両1の進行方向の道路が車両1の現在の位置から所定の距離進むとカーブしていることを検出している。ここで本実施形態のカーブ半径は130m以下の場合をカーブとするが、これに限らず、本実施形態に述べる効果を有する場合は本実施形態のカーブ半径の値以下のカーブであってもよい。
In FIG. 8, the object detection range R1 of the
レーダ装置2のレーダ情報として、車両1との距離が例えば20m以上離れているような所定の距離を有し、絶対速度がゼロであり、角度は略進行方向正面であり、反射強度が強いピーク(ピークを検出する閾値を超えるパワーを有するピーク)が存在していれば、電子制御装置4から画像処理装置3への所定範囲を切り出す候補物体の対象としてこのレーダ情報を選択しない、または、候補物体として処理の優先順位付けを行わない。
The radar information of the
自車線内のカーブの入り口手前でカードレール202のような静止物は車両1の制御対象としなくとも、ドライバーのステアリング操作で回避できる。自動的な運転介入を行うことにより、カーブの角度に沿ったステアリングの操作よりも余計にステアリングを操作するような誤った車両制御を行う危険性がある。したがって、車両1がカーブに差し掛かる前に検出した自車線内のガードレールのような静止物は、車両制御の対象とはしない。
A stationary object such as the
なお、ガードレール202のような絶対速度がゼロの静止物体のレーダ情報を車両制御の候補物体として選択しない条件としては、ナビゲーション装置4の情報により、その物体が自車線上にあり、かつ、車両1に備えられたステアリングセンサ29、または、ヨーレートセンサ39によって車両1がカーブに沿って走行していないことを示していることも含まれる。ここで、自車線上とは本実施例では一例として車両が所定の車線を走行している場合に、その走行方向の両端にある白線から白線の距離約2.5mの間に車両1が存在する状態をいうが、これに限られず本実施形態の効果を有する範囲が含まれる。
As a condition for not selecting radar information of a stationary object having a zero absolute speed such as the
さらに、車両1がカーブの入り口に差し掛かり、ドライバーがステアリングをカーブの角度に沿って操作した場合は、その車の旋回の度合いに応じて、ステアリングセンサ29、ヨーレートセンサ39が車両1のカーブ走行状態を示す。車両1がカーブに沿って走行すると、レーダ装置2の検出範囲R2、および画像処理装置の検出範囲C1もカーブの角度に沿って移動する。その結果、レーダ情報により候補物体を検出していれば、車両1との距離や相対速度の情報に応じて優先順位付け行い、候補物体とし画像処理装置3が対象の範囲画像を切り取って、電子制御装置4で物体の種類判定を行い、車両制御の対象物であれば、その物体の状況に応じた車両制御を行うことが可能である。
Further, when the vehicle 1 reaches the entrance of the curve and the driver operates the steering along the angle of the curve, the
また、本実施形態の変形例としては、車両1が自車線上を走行中に車速センサ19からの車両1の速度情報を取得すると、速度と制動距離の関係から車両1の進行方向における対象物との衝突の可能性がある場合は、その物体を候補物体の処理の優先順位を高くして物体の種類判定を行い、迅速な車両制御を行うことができる。
As a modification of the present embodiment, when the vehicle 1 acquires speed information of the vehicle 1 from the
具体的には、ナビゲーション装置4の情報から路面が凍結しているような場合は、車速センサ19による車両1の速度情報と制動距離の関係を算出する。特に凍結路面では乾燥路面よりも制動距離が2倍から3倍以上伸びることを含めて、乾燥路面では優先順位を低くしているような、車両1との距離が他の候補物体よりも離れているレーダ情報の候補物体の処理の優先順位を高くする。
<2−2.動作>
図10は走行情報を用いた電子制御装置の処理フローチャートである。電子制御装置4はレーダ装置2からレーダ情報を受信する(ステップS201)。
Specifically, when the road surface is frozen from the information of the
<2-2. Operation>
FIG. 10 is a process flowchart of the electronic control device using the travel information. The
次に、ナビゲーション装置4、車速センサ19、ステアリングセンサ29、または、ヨーレートセンサ39などの各種センサから車両1の走行情報を受信する(ステップS202)。ここで、走行情報とは上述のようにナビゲーション装置4から得られる道路のカーブや凍結の状態のほか道路の車線数、道路勾配、路面温度、気温、湿度などが含まれる。さらに、車両1の走行状態とは車両の速度や舵角が情報などである。
Next, the travel information of the vehicle 1 is received from various sensors such as the
電子制御装置4は、ナビゲーション装置4、および、各種センサからの走行情報を候補物体の優先順位付けの情報とともに、レーダ情報に含まれる距離の情報に基づいて、複数の候補物体に対して優先順位付けを行う(ステップS203)。
The
具体的には、上述のように自車線上の進行路の所定の距離にカーブが存在する場合は、自車線上のガードレールなどのレーダ情報は電子制御装置4の物体の種類判定の対象としないように、候補物体として選択しない。または、候補物体としての処理の優先順位を他の候補物体よりも下げる。
Specifically, as described above, when there is a curve at a predetermined distance on the traveling path on the own lane, radar information such as a guardrail on the own lane is not subject to the object type determination of the
また、自車線上の道路が凍結している場合は、車両の速度と制動距離を考慮して、他の候補物体と比較して車両との距離が所定距離以上離れているレーダ情報も候補物体として、処理の優先順位を他の候補物体よりも上げる。 Also, if the road on the lane is frozen, the radar information that the distance from the vehicle is more than a predetermined distance compared to other candidate objects is also considered as a candidate object in consideration of the speed and braking distance of the vehicle As a result, the priority of processing is raised over other candidate objects.
次に電子制御装置4は処理の優先順位の高い候補物体からその物体の種類を予測し(ステップS204)、候補物体のレーダ情報と物体の種類の情報とに基づいて、該当する候補物体が画像処理装置3にある1フレームの画像の中のどの座標に該当するかを算出する(ステップS205)。
Next, the
電子制御装置4は予測した物体の種類に応じた画像範囲の座標情報を画像処理装置3に送信する(ステップS206)。画像の範囲の座標の情報を受信した画像処理装置3は、カメラ13を用いて撮影した1フレームの物体の種類に応じた画像範囲を切り出して、電子制御装置4に送信する。
The
電子制御装置4は画像処理装置3が送信した画像情報を受信して(ステップS207)、物体の種類判定を行う(ステップS208)。
The
物体の種類判定の結果、その物体が車両制御の対象物である場合(ステップS209がYes)は、警報器17からの警報による報知を行うか否かを判断する(ステップS210)。物体が車両制御の対象でない場合は(ステップS209がNo)、処理を終了する。
As a result of the object type determination, if the object is an object for vehicle control (step S209 is Yes), it is determined whether or not notification by the alarm from the
警報による報知が必要な場合(ステップS210がYes)は、警報器17から警報を出力する(ステップS211)。警報は図示しない車室内ナビゲーション装置から音声による警告を出力したり、映像による警告を行う。 When notification by an alarm is necessary (step S210 is Yes), an alarm is output from the alarm device 17 (step S211). The alarm outputs a warning by voice from a vehicle interior navigation device (not shown) or gives a warning by video.
警報を出力した後、または、警報による報知が必要ない場合(ステップS210がNo)は、運転介入が必要であるか否かを判断する(ステップS212)。運転介入が必要な場合(ステップS212がYes)は、ブレーキ27やステアリング37を自動的に操作して運転介入を行う(ステップS213)。
After outputting the alarm or when notification by the alarm is not necessary (No in Step S210), it is determined whether or not driving intervention is necessary (Step S212). If driving intervention is necessary (Yes in step S212), the driving intervention is performed by automatically operating the
運転介入が必要でない場合(ステップS212がNo)は、処理を終了する。例えばドライバーの操作により車外の物体との衝突が避けられる場合である。 If driving intervention is not necessary (No in step S212), the process ends. For example, a collision with an object outside the vehicle can be avoided by a driver's operation.
以上のように、本実施形態では、ナビゲーション装置8、または、各種センサから得られる車両の走行状況を示す走行情報をレーダ装置の情報とあわせて用いることで、車両1が走行する状況に応じて、検出対象とする物体の存在する処理対象領域を選択できる。これにより、電子制御装置4のCPU14の処理負荷が軽減されるとともに、車両1の走行状態に応じた車両制御を迅速に行うことができる。
As described above, in the present embodiment, the traveling information indicating the traveling state of the vehicle obtained from the
また、車両制御の対象となる可能性の高い物体から順に検出することができ、ドライバーなど車両の乗員の安全確保を迅速に行うことができる。 Further, it is possible to detect in order from an object that is likely to be a target of vehicle control, and it is possible to quickly ensure the safety of a vehicle occupant such as a driver.
1・・・・・ 車両
2・・・・・ レーダ装置
3・・・・・ 画像処理装置
5・・・・・ シートベルト
6・・・・・ ヘッドレスト
12・・・・ アンテナ
13・・・・ カメラ
14・・・・ CPU
17・・・・ 警報器
22・・・・ レーダ制御部
23・・・・ カメラ制御部
27・・・・ ブレーキ
37・・・・ ステアリング
DESCRIPTION OF SYMBOLS 1 ...
17 ....
Claims (6)
前記レーダ情報に基づく前記検出対象の候補物体の前記画像中の座標を導出する導出手段と、
前記レーダ情報に基づいて、前記候補物体の種類を予測する予測手段と、
前記画像中における前記候補物体の導出された座標の周辺の、当該候補物体の予測された種類に応じたサイズの領域を処理対象領域に設定する設定手段と、
前記画像中の前記処理対象領域のみを対象に前記検出対象を検出する検出手段と、
を有することを特徴とする物体検出装置。 Based on radar information from a radar device that detects the position and speed of an object outside the vehicle provided in a vehicle, and an image obtained by a camera that images a region that is provided in the vehicle and overlaps the detection range of the radar device. An object detection device for detecting a detection target outside the vehicle,
Derivation means for deriving coordinates in the image of the candidate object to be detected based on the radar information;
Prediction means for predicting the type of the candidate object based on the radar information;
Setting means for setting a region around the derived coordinates of the candidate object in the image and having a size corresponding to the predicted type of the candidate object as a processing target region;
Detecting means for detecting the detection target only for the processing target region in the image;
An object detection apparatus comprising:
前記検出手段は、前記処理対象領域から前記検出対象を検出するときに、当該処理対象領域に対応する前記候補物体の予測された種類に応じた判定手法を用いることを特徴とする物体検出装置。 The object detection device according to claim 1,
The detection unit uses a determination method according to a predicted type of the candidate object corresponding to the processing target region when detecting the detection target from the processing target region.
前記車両の走行状況を示す走行情報を取得する取得手段と、
前記走行情報に基づいて、前記レーダ情報に基づく前記候補物体の一部を処理対象として選択する手段、
をさらに備えることを特徴とする物体検出装置。 The object detection apparatus according to claim 1 or 2,
Obtaining means for obtaining traveling information indicating a traveling state of the vehicle;
Means for selecting a part of the candidate object based on the radar information as a processing target based on the traveling information;
An object detection device further comprising:
前記導出手段、前記予測手段、前記設定手段、および、前記検出手段のうち少なくとも1の手段は、
前記レーダ情報に基づく前記候補物体が複数あるとき、複数の前記候補物体のうちの前記車両との距離の近い順から処理対象とすることを特徴とする物体検出装置。 In the object detection device according to any one of claims 1 to 3,
At least one of the derivation means, the prediction means, the setting means, and the detection means is:
When there are a plurality of candidate objects based on the radar information, the object detection device is set as a processing target in order of a short distance from the vehicle among the plurality of candidate objects.
前記レーダ情報に基づく前記検出対象との候補物体の前記画像中の座標を導出する工程と、
前記レーダ情報に基づいて、前記候補物体の種類を予測する工程と、
前記画像中における前記候補物体の導出された座標の周辺の、当該候補物体の予測された種類に応じたサイズの領域を処理対象領域に設定する工程と、
前記画像中の前記処理対象領域のみを対象に前記検出対象を検出する工程と、
を有することを特徴とする物体検出方法。 Radar information from a radar device that detects the position and speed of an object outside the vehicle provided in the vehicle, and an image obtained by a camera that images a region provided in the vehicle and overlapping the detection range of the radar device. Based on the object detection method for detecting a detection target outside the vehicle,
Deriving coordinates in the image of candidate objects with the detection target based on the radar information;
Predicting the type of the candidate object based on the radar information;
Setting a region around the derived coordinates of the candidate object in the image with a size according to the predicted type of the candidate object as a processing target region;
Detecting the detection target for only the processing target region in the image;
An object detection method characterized by comprising:
車両に設けられ前記車両外の物体の位置と速度を検出するレーダ装置と、
前記車両に設けられ前記レーダ装置の検出範囲と重なる領域を撮像するカメラと、
レーダ装置からのレーダ情報と、カメラで得られた画像とに基づいて、前記車両外の検出対象を検出する請求項1ないし4のいずれかに記載の物体検出装置と、
を備えることを特徴とする物体検出システム。 An object detection system,
A radar device provided in a vehicle for detecting the position and speed of an object outside the vehicle;
A camera that is provided in the vehicle and images a region that overlaps a detection range of the radar device;
The object detection device according to any one of claims 1 to 4, wherein a detection target outside the vehicle is detected based on radar information from a radar device and an image obtained by a camera.
An object detection system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009171014A JP2011027457A (en) | 2009-07-22 | 2009-07-22 | Object detecting device, information processing method and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009171014A JP2011027457A (en) | 2009-07-22 | 2009-07-22 | Object detecting device, information processing method and information processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011027457A true JP2011027457A (en) | 2011-02-10 |
Family
ID=43636388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009171014A Pending JP2011027457A (en) | 2009-07-22 | 2009-07-22 | Object detecting device, information processing method and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011027457A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012220377A (en) * | 2011-04-11 | 2012-11-12 | Denso Corp | Object identification apparatus and object identification program |
KR101417408B1 (en) * | 2012-11-15 | 2014-07-14 | 현대자동차주식회사 | Method and system for judging object by radar |
JP2014142202A (en) * | 2013-01-22 | 2014-08-07 | Denso Corp | Vehicle-mounted target detection device |
US9041592B2 (en) | 2011-10-14 | 2015-05-26 | Samsung Techwin Co., Ltd. | Radar sensor and method of detecting object using the same |
WO2015098510A1 (en) * | 2013-12-27 | 2015-07-02 | 日立オートモティブシステムズ株式会社 | Vehicle control device, vehicle mounted with vehicle control device, and moving body detection method |
KR20160047863A (en) * | 2014-10-23 | 2016-05-03 | 현대모비스 주식회사 | Object detecting apparatus, and method for operating the same |
KR101750615B1 (en) * | 2015-08-18 | 2017-06-23 | 재단법인대구경북과학기술원 | Device and method for object recognition and detection |
KR20170071728A (en) * | 2015-12-16 | 2017-06-26 | 현대자동차주식회사 | Vehicle and controlling method for the vehicle |
JP2019053490A (en) * | 2017-09-14 | 2019-04-04 | 株式会社デンソー | Target recognition device, target recognition method, and vehicle control system |
WO2019151059A1 (en) * | 2018-02-05 | 2019-08-08 | 日本電気株式会社 | Image processing device, range finding device, imaging device, image processing method, and storage medium |
WO2020066305A1 (en) * | 2018-09-25 | 2020-04-02 | 日立オートモティブシステムズ株式会社 | Electronic control device |
CN111226132A (en) * | 2019-03-18 | 2020-06-02 | 深圳市大疆创新科技有限公司 | Target detection method and device, millimeter wave radar and movable platform |
WO2021186960A1 (en) * | 2020-03-16 | 2021-09-23 | ソニーセミコンダクタソリューションズ株式会社 | Recognition process system, recognition process device, and recognition process method |
JP2021157847A (en) * | 2020-11-16 | 2021-10-07 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. | Method, apparatus, device, and readable storage medium for recognizing abnormal license plate |
CN113631948A (en) * | 2019-03-27 | 2021-11-09 | 株式会社电装 | Object detection device |
CN114067608A (en) * | 2020-08-06 | 2022-02-18 | 丰田自动车株式会社 | Vehicle-mounted detection device and detection method |
WO2023026920A1 (en) | 2021-08-26 | 2023-03-02 | パナソニックIpマネジメント株式会社 | Sensing device, processing device and data processing method |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001330665A (en) * | 2000-05-18 | 2001-11-30 | Fujitsu Ten Ltd | On-vehicle object detector using radar and image processing |
JP2005271622A (en) * | 2004-03-23 | 2005-10-06 | Toyota Motor Corp | Vehicle controlling system |
JP2007015676A (en) * | 2005-05-13 | 2007-01-25 | Honda Motor Co Ltd | Apparatus and method for predicting collision |
JP2007072665A (en) * | 2005-09-06 | 2007-03-22 | Fujitsu Ten Ltd | Object discrimination device, object discrimination method and object discrimination program |
JP2007219758A (en) * | 2006-02-15 | 2007-08-30 | Fujitsu Ten Ltd | On-vehicle information unit, and information processing method for on-vehicle unit |
JP2007232408A (en) * | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | Apparatus and method for estimating shape of structure and obstacle detection apparatus |
JP2007240314A (en) * | 2006-03-08 | 2007-09-20 | Omron Corp | Object detector |
JP2007251257A (en) * | 2006-03-13 | 2007-09-27 | Fujitsu Ten Ltd | Image recognition device, vehicle control device, image recognition method, and vehicle control method |
JP2008152672A (en) * | 2006-12-19 | 2008-07-03 | Fujitsu Ten Ltd | Image recognition apparatus, image recognition method and electronic control apparatus |
JP2009017157A (en) * | 2007-07-04 | 2009-01-22 | Omron Corp | Image processor, method and program |
-
2009
- 2009-07-22 JP JP2009171014A patent/JP2011027457A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001330665A (en) * | 2000-05-18 | 2001-11-30 | Fujitsu Ten Ltd | On-vehicle object detector using radar and image processing |
JP2005271622A (en) * | 2004-03-23 | 2005-10-06 | Toyota Motor Corp | Vehicle controlling system |
JP2007015676A (en) * | 2005-05-13 | 2007-01-25 | Honda Motor Co Ltd | Apparatus and method for predicting collision |
JP2007072665A (en) * | 2005-09-06 | 2007-03-22 | Fujitsu Ten Ltd | Object discrimination device, object discrimination method and object discrimination program |
JP2007219758A (en) * | 2006-02-15 | 2007-08-30 | Fujitsu Ten Ltd | On-vehicle information unit, and information processing method for on-vehicle unit |
JP2007232408A (en) * | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | Apparatus and method for estimating shape of structure and obstacle detection apparatus |
JP2007240314A (en) * | 2006-03-08 | 2007-09-20 | Omron Corp | Object detector |
JP2007251257A (en) * | 2006-03-13 | 2007-09-27 | Fujitsu Ten Ltd | Image recognition device, vehicle control device, image recognition method, and vehicle control method |
JP2008152672A (en) * | 2006-12-19 | 2008-07-03 | Fujitsu Ten Ltd | Image recognition apparatus, image recognition method and electronic control apparatus |
JP2009017157A (en) * | 2007-07-04 | 2009-01-22 | Omron Corp | Image processor, method and program |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012220377A (en) * | 2011-04-11 | 2012-11-12 | Denso Corp | Object identification apparatus and object identification program |
US9041592B2 (en) | 2011-10-14 | 2015-05-26 | Samsung Techwin Co., Ltd. | Radar sensor and method of detecting object using the same |
KR101417408B1 (en) * | 2012-11-15 | 2014-07-14 | 현대자동차주식회사 | Method and system for judging object by radar |
US9342897B2 (en) | 2013-01-22 | 2016-05-17 | Denso Corporation | In-vehicle target detecting device |
JP2014142202A (en) * | 2013-01-22 | 2014-08-07 | Denso Corp | Vehicle-mounted target detection device |
WO2015098510A1 (en) * | 2013-12-27 | 2015-07-02 | 日立オートモティブシステムズ株式会社 | Vehicle control device, vehicle mounted with vehicle control device, and moving body detection method |
JP2015125669A (en) * | 2013-12-27 | 2015-07-06 | 日立オートモティブシステムズ株式会社 | Vehicle controller, vehicle mounting therein vehicle control device, and movable body detection method |
KR20160047863A (en) * | 2014-10-23 | 2016-05-03 | 현대모비스 주식회사 | Object detecting apparatus, and method for operating the same |
CN105549023A (en) * | 2014-10-23 | 2016-05-04 | 现代摩比斯株式会社 | Object detecting apparatus, and method of operating the same |
KR101644370B1 (en) * | 2014-10-23 | 2016-08-01 | 현대모비스 주식회사 | Object detecting apparatus, and method for operating the same |
KR101750615B1 (en) * | 2015-08-18 | 2017-06-23 | 재단법인대구경북과학기술원 | Device and method for object recognition and detection |
KR20170071728A (en) * | 2015-12-16 | 2017-06-26 | 현대자동차주식회사 | Vehicle and controlling method for the vehicle |
KR102338989B1 (en) * | 2015-12-16 | 2021-12-14 | 현대자동차주식회사 | Vehicle and controlling method for the vehicle |
JP2019053490A (en) * | 2017-09-14 | 2019-04-04 | 株式会社デンソー | Target recognition device, target recognition method, and vehicle control system |
JP7045155B2 (en) | 2017-09-14 | 2022-03-31 | 株式会社デンソー | Target recognition device, target recognition method and vehicle control system |
WO2019151059A1 (en) * | 2018-02-05 | 2019-08-08 | 日本電気株式会社 | Image processing device, range finding device, imaging device, image processing method, and storage medium |
JP2019135446A (en) * | 2018-02-05 | 2019-08-15 | 日本電気株式会社 | Image processing device, distance measurement device, imaging device, image processing method and program |
JP7008308B2 (en) | 2018-02-05 | 2022-01-25 | 日本電気株式会社 | Image processing device, ranging device, image pickup device, image processing method and program |
WO2020066305A1 (en) * | 2018-09-25 | 2020-04-02 | 日立オートモティブシステムズ株式会社 | Electronic control device |
CN111226132A (en) * | 2019-03-18 | 2020-06-02 | 深圳市大疆创新科技有限公司 | Target detection method and device, millimeter wave radar and movable platform |
CN113631948A (en) * | 2019-03-27 | 2021-11-09 | 株式会社电装 | Object detection device |
WO2021186960A1 (en) * | 2020-03-16 | 2021-09-23 | ソニーセミコンダクタソリューションズ株式会社 | Recognition process system, recognition process device, and recognition process method |
US20230113547A1 (en) * | 2020-03-16 | 2023-04-13 | Sony Semiconductor Solutions Corporation | Recognition processing system, recognition processing device, and recognition processing method |
CN114067608A (en) * | 2020-08-06 | 2022-02-18 | 丰田自动车株式会社 | Vehicle-mounted detection device and detection method |
CN114067608B (en) * | 2020-08-06 | 2023-10-10 | 丰田自动车株式会社 | Vehicle-mounted detection device and detection method |
JP2021157847A (en) * | 2020-11-16 | 2021-10-07 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. | Method, apparatus, device, and readable storage medium for recognizing abnormal license plate |
WO2023026920A1 (en) | 2021-08-26 | 2023-03-02 | パナソニックIpマネジメント株式会社 | Sensing device, processing device and data processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011027457A (en) | Object detecting device, information processing method and information processing system | |
US9704404B2 (en) | Lane detection apparatus and operating method for the same | |
JP4396400B2 (en) | Obstacle recognition device | |
CN105128836B (en) | Autonomous emergency braking system and the wherein method of identifying rows people | |
JP4598653B2 (en) | Collision prediction device | |
US9150223B2 (en) | Collision mitigation apparatus | |
JP4823781B2 (en) | Vehicle travel safety device | |
JP5910046B2 (en) | Obstacle detection device | |
EP2302412B1 (en) | System and method for evaluation of an automotive vehicle forward collision threat | |
JP6787157B2 (en) | Vehicle control device | |
JP2007172035A (en) | Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method | |
JP2011118483A (en) | On-vehicle device and recognition support system | |
JP5482670B2 (en) | Object detection device | |
JP2009174900A (en) | Object detecting device, object detection method, and object detecting system | |
JP2008037361A (en) | Obstacle recognition device | |
JP2005202878A (en) | Object detector | |
JP2010049383A (en) | Warning device for vehicle | |
CN107004250B (en) | Image generation device and image generation method | |
JP7275623B2 (en) | Driving support device | |
JP2016192167A (en) | Vehicle control device and vehicle control method | |
JP6432538B2 (en) | Collision prediction device | |
JP2009187351A (en) | Obstacle detecting device and obstacle detecting method | |
JP2012164275A (en) | Image recognition apparatus | |
JP5617362B2 (en) | Obstacle recognition device | |
JP4872517B2 (en) | Obstacle recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130723 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131119 |