JP2011027457A - Object detecting device, information processing method and information processing system - Google Patents

Object detecting device, information processing method and information processing system Download PDF

Info

Publication number
JP2011027457A
JP2011027457A JP2009171014A JP2009171014A JP2011027457A JP 2011027457 A JP2011027457 A JP 2011027457A JP 2009171014 A JP2009171014 A JP 2009171014A JP 2009171014 A JP2009171014 A JP 2009171014A JP 2011027457 A JP2011027457 A JP 2011027457A
Authority
JP
Japan
Prior art keywords
vehicle
information
image
radar
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009171014A
Other languages
Japanese (ja)
Inventor
Masahiko Shiotani
晶彦 塩谷
Natsumi Take
奈津美 嶽
Nobuaki Ueda
伸晃 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2009171014A priority Critical patent/JP2011027457A/en
Publication of JP2011027457A publication Critical patent/JP2011027457A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for reducing a processing load on an electronic control device in determining the type of an object in an image photographed by a camera. <P>SOLUTION: An object detecting device predicts the type of an object based on radar information detected by a radar device, and determines the type of the object by an electronic control device by cutting out a predetermined image range in a single frame of an image photographed by a camera based on the predicted type of the object. With this configuration, the processing load for determining the type of an object by an electronic control device using an image is reduced. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、レーダ装置により検出した物体情報と画像情報を用いて車両制御を行う技術に関する。   The present invention relates to a technique for performing vehicle control using object information and image information detected by a radar apparatus.

一般に、レーダ装置はアンテナから送信した電波などの信号が車外の物体からはね返り、そのはね返った信号をアンテナが受信する。アンテナから送信した信号とアンテナで受信した信号との時間差とドップラーシフトの情報に基づいて、車両と車外の物体間の距離と、車両からみた物体の速度と、車両からみた車外の物体の角度と、車外の物体から受信した受信波の反射強度とを検出できる。   In general, in a radar apparatus, a signal such as a radio wave transmitted from an antenna rebounds from an object outside the vehicle, and the antenna receives the rebounded signal. Based on the time difference between the signal transmitted from the antenna and the signal received by the antenna and the Doppler shift information, the distance between the vehicle and the object outside the vehicle, the speed of the object viewed from the vehicle, the angle of the object outside the vehicle viewed from the vehicle, and The reflection intensity of the received wave received from the object outside the vehicle can be detected.

しかし、レーダ装置のみを用いて物体を検出する場合、物体から跳ね返った受信波の情報とノイズの情報とを区別するために所定の閾値を設定し、閾値を超える反射強度を有する信号を物体として検出する。その結果、反射強度が強い車両やガードレールなどの物体の検出は可能であるが、反射強度が弱い人を検出することは難しいという問題がある。そのため、反射強度が弱い人を検出するためには、物体を検出するための閾値を下げる必要があるが、閾値を下げた場合、ノイズの情報も物体として検出してしまい、誤った車両制御を行うという問題があった。   However, when detecting an object using only a radar device, a predetermined threshold is set to distinguish received wave information bounced from the object and noise information, and a signal having a reflection intensity exceeding the threshold is set as the object. To detect. As a result, it is possible to detect an object such as a vehicle or a guardrail with high reflection intensity, but there is a problem that it is difficult to detect a person with low reflection intensity. Therefore, in order to detect a person with low reflection intensity, it is necessary to lower the threshold for detecting an object. However, if the threshold is lowered, noise information is also detected as an object, and erroneous vehicle control is performed. There was a problem of doing.

また、車両にカメラを備えた画像処理装置を搭載して、カメラで撮影した1フレームごとの画像情報を走査して画像中の物体の種類を判別する技術がある。   In addition, there is a technique in which an image processing apparatus including a camera is mounted on a vehicle, and image information for each frame captured by the camera is scanned to determine the type of object in the image.

カメラを備えた画像処理装置のみにより物体を検出する場合、物体の種類の判別は可能であっても、相対速度の検出はできないことから、車両と物体とが衝突するまでの時間を検出することができず、衝突を回避する車両制御を行うことが困難であった。また、1フレームごとに画像の全領域について車両制御の対象となる物体を検出するための走査処理を行う必要があることから、車両に搭載されて画像の物体の種類判定を行う電子制御装置のCPUの処理負荷が大きくなり、迅速な車両制御ができないという問題があった。   When an object is detected only by an image processing device equipped with a camera, even if the type of object can be determined, the relative speed cannot be detected, so the time until the vehicle and the object collide is detected. It was difficult to perform vehicle control to avoid a collision. In addition, since it is necessary to perform scanning processing for detecting an object to be subjected to vehicle control for the entire area of the image for each frame, an electronic control device that is mounted on a vehicle and determines the type of an object in the image. There has been a problem that the processing load of the CPU becomes large and quick vehicle control cannot be performed.

このようなレーダ装置のみを用いた場合、または、カメラのみを用いた場合の問題を解決するために、レーダ装置とカメラを備えた画像処理装置とを組み合わせて、車外の物体の距離、角度、相対速度、および、物体の種類を判別して、車両と物体との衝突を回避する車両制御を行う技術がある。   In order to solve the problem in the case of using only such a radar device or in the case of using only a camera, the distance, angle, and distance of an object outside the vehicle are combined with a radar device and an image processing device equipped with a camera. There is a technique for performing vehicle control that discriminates the relative speed and the type of an object and avoids a collision between the vehicle and the object.

また、レーダ装置と画像処理装置との情報を組み合わせて画像処理を行う場合、レーダ装置で検出した対象物の距離情報を用いて、カメラで撮影した画像処理範囲を限定する技術が開示されている(例えば、特許文献1参照。)。   In addition, when image processing is performed by combining information of a radar apparatus and an image processing apparatus, a technique for limiting an image processing range captured by a camera using distance information of an object detected by the radar apparatus is disclosed. (For example, refer to Patent Document 1).

特開平9−264954号公報JP-A-9-264554

しかしながら、レーダ装置とカメラを用いた画像処理装置とを組み合わせて物体を検出する場合でも、1フレームごとに画像の全領域について車両制御の対象となる物体を検出するための走査処理を行う必要があることから、電子制御装置のCPUの処理負荷が大きくなり、迅速な車両制御ができないという問題があった。   However, even when an object is detected by combining a radar apparatus and an image processing apparatus using a camera, it is necessary to perform a scanning process for detecting an object to be subjected to vehicle control for every region of the image for each frame. For this reason, there has been a problem that the processing load on the CPU of the electronic control device is increased and rapid vehicle control cannot be performed.

また、特許文献1記載の技術では、白線と車両を対象物とした場合に、1フレーム内の対象物の画像を含む所定範囲を画像処理の対象とすることで、画像処理負荷を軽減することについては記載されているものの、対象物の種類ごとにその対象物の大きさに応じて異なる範囲を画像処理することについては考慮されておらず、画像処理負荷が大きくなっていた。   In the technology described in Patent Document 1, when a white line and a vehicle are used as objects, the image processing load is reduced by setting a predetermined range including an image of the object in one frame as an object of image processing. Is described, however, image processing of different ranges depending on the size of the target object is not considered for each type of target object, and the image processing load is increased.

本発明は、上記課題に鑑みてなされたものであり、OLE_LINK1電子制御装置の画像処理負荷を軽減して車両制御を迅速に行う技術OLE_LINK1を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technology OLE_LINK1 that reduces the image processing load of the OLE_LINK1 electronic control device and performs vehicle control quickly.

上記課題を解決するため、請求項1の発明は、車両に設けられ前記車両外の物体の位置と速度を検出するレーダ装置からのレーダ情報と、前記車両に設けられ前記レーダ装置の検出範囲と重なる領域を撮像するカメラで得られた画像とに基づいて、前記車両外の検出対象を検出する物体検出装置であって、前記レーダ情報に基づいて、前記候補物体の種類を予測する予測手段と、前記レーダ情報に基づく前記検出対象の候補物体の前記画像中の座標を導出する導出手段と、前記画像中における前記候補物体の導出された座標の周辺の、当該候補物体の予測された種類に応じたサイズの領域を処理対象領域に設定する設定手段と、前記画像中の前記処理対象領域のみを対象に前記検出対象を検出する検出手段と、を有することを特徴とする物体検出装置。   In order to solve the above-described problem, the invention of claim 1 is directed to radar information from a radar device that is provided in a vehicle and detects the position and speed of an object outside the vehicle, and a detection range of the radar device that is provided in the vehicle. An object detection device that detects a detection target outside the vehicle based on an image obtained by a camera that captures an overlapping region, and a prediction unit that predicts the type of the candidate object based on the radar information; Deriving means for deriving the coordinates in the image of the candidate object to be detected based on the radar information, and the predicted type of the candidate object in the vicinity of the derived coordinates of the candidate object in the image An object comprising: setting means for setting a region having a size corresponding to the processing target region; and detecting means for detecting the detection target only for the processing target region in the image. Detection device.

また、請求項2の発明は、請求項1記載の物体検出装置において、前記検出手段は、前記処理対象領域から前記検出対象を検出するときに、当該処理対象領域に対応する前記候補物体の予測された種類に応じた判定手法を用いることを特徴とする物体検出装置。   The invention according to claim 2 is the object detection apparatus according to claim 1, wherein when the detection unit detects the detection target from the processing target region, the prediction of the candidate object corresponding to the processing target region is performed. An object detection apparatus using a determination method according to the type of the object.

また、請求項3の発明は、請求項1または2記載の物体検出装置において、前記車両の走行状況を示す走行情報を取得する取得手段と、前記走行情報に基づいて、前記レーダ情報に基づく前記候補物体の一部を処理対象として選択する手段、をさらに備えることを特徴とする物体検出装置。   According to a third aspect of the present invention, in the object detection device according to the first or second aspect, the acquisition unit that acquires the traveling information indicating the traveling state of the vehicle, and the radar information based on the traveling information. An object detection apparatus further comprising means for selecting a part of a candidate object as a processing target.

また、請求項4の発明は、請求項1乃至3のいずれか記載の物体検出装置において、前記導出手段、前記予測手段、前記設定手段、および、前記検出手段のうち少なくとも1の手段は、前記レーダ情報に基づく前記候補物体が複数あるとき、複数の前記候補物体のうちの前記車両との距離の近い順から処理対象とすることを特徴とする物体検出装置。   According to a fourth aspect of the present invention, in the object detection apparatus according to any one of the first to third aspects, at least one of the derivation unit, the prediction unit, the setting unit, and the detection unit is When there are a plurality of candidate objects based on radar information, the object detection apparatus is characterized in that a processing target is selected in order from the closest distance to the vehicle among the plurality of candidate objects.

また、請求項5の発明は、車両に設けられた前記車両外の物体の位置と相対速度を検出するレーダ装置からのレーダ情報と、前記車両に設けられ前記レーダ装置の検出範囲と重なる領域を撮像するカメラで得られた画像とに基づいて、前記車両外の検出対象を検出する物体検出方法であって、前記レーダ情報に基づいて、前記候補物体の種類を予測する工程と、前記レーダ情報に基づく前記検出対象との候補物体の前記画像中の座標を導出する工程と、前記画像中における前記候補物体の導出された座標の周辺の、当該候補物体の予測された種類に応じたサイズの領域を処理対象領域に設定する工程と、前記画像中の前記処理対象領域のみを対象に前記検出対象を検出する工程と、を有することを特徴とする物体検出方法。   According to a fifth aspect of the present invention, there is provided a radar information from a radar device that detects a position and a relative speed of an object outside the vehicle provided in the vehicle, and a region that overlaps a detection range of the radar device provided in the vehicle. An object detection method for detecting a detection target outside the vehicle based on an image obtained by an imaging camera, the step of predicting a type of the candidate object based on the radar information, and the radar information Deriving the coordinates in the image of the candidate object with the detection target based on, and the size of the candidate object in the size around the derived coordinates of the candidate object in the image according to the predicted type of the candidate object An object detection method comprising: setting a region as a processing target region; and detecting the detection target only for the processing target region in the image.

また、請求項6の発明は、物体検出システムであって、車両に設けられ前記車両外の物体の位置と速度を検出するレーダ装置と、前記車両に設けられ前記レーダ装置の検出範囲と重なる領域を撮像するカメラと、レーダ装置からのレーダ情報と、カメラで得られた画像とに基づいて、前記車両外の検出対象を検出する請求項1ないし4のいずれかに記載の物体検出装置と、を備えることを特徴とする物体検出システム。   According to a sixth aspect of the present invention, there is provided an object detection system comprising: a radar device provided in a vehicle for detecting a position and speed of an object outside the vehicle; and a region provided in the vehicle and overlapping a detection range of the radar device. The object detection device according to any one of claims 1 to 4, wherein a detection target outside the vehicle is detected based on a camera that captures the image, radar information from the radar device, and an image obtained by the camera. An object detection system comprising:

請求項1ないし6の発明によれば、電子制御装置が行う画像処理は検出対象とする物体が存在する画像領域に限定され、物体を検出する画像処理負荷を軽減するとともに、レーダ装置の処理を含めた物体検出システム全体の処理負荷の軽減が可能となる。また、電子制御装置の処理負荷軽減により、物体に対する車両制御を迅速に行うことができる。   According to the first to sixth aspects of the present invention, the image processing performed by the electronic control device is limited to the image region where the object to be detected exists, and the processing load of the radar device is reduced while reducing the image processing load for detecting the object. The processing load of the entire object detection system can be reduced. Moreover, the vehicle control with respect to the object can be quickly performed by reducing the processing load of the electronic control device.

また、特に請求項2の発明によれば、レーダ装置からの情報により予め物体の種類を予測することで、電子制御装置による物体の種類判定を何度もやり直す必要はなく物体の種類判定が迅速に行える。さらに、電子制御装置の処理負荷軽減により、物体に対する車両制御を迅速に行うことができる。   In particular, according to the second aspect of the present invention, it is not necessary to repeat the object type determination by the electronic control unit by predicting the object type in advance based on information from the radar device, so that the object type determination can be performed quickly. It can be done. Furthermore, the vehicle control on the object can be quickly performed by reducing the processing load of the electronic control unit.

また、特に請求項3の発明によれば、車両の走行状況を示す走行情報をレーダ装置の情報とあわせて用いることで、車両が走行する状況に応じて、処理対象とする候補物体を選択できる。これにより、電子制御装置の処理負荷が軽減されるとともに、車両の走行状態に応じた車両制御を迅速に行うことができる。   In particular, according to the invention of claim 3, by using the traveling information indicating the traveling state of the vehicle together with the information of the radar device, a candidate object to be processed can be selected according to the traveling state of the vehicle. . As a result, the processing load on the electronic control device is reduced, and vehicle control according to the running state of the vehicle can be performed quickly.

また、特に請求項4の発明によれば、車両制御の対象となる可能性の高い物体から順に検出することができ、ドライバーなど車両の乗員の安全確保を迅速に行うことが可能となる。   In particular, according to the invention of claim 4, it is possible to detect in order from an object that is most likely to be a target of vehicle control, and it is possible to quickly ensure the safety of a vehicle occupant such as a driver.

図1は、車両の全体を示した図である。FIG. 1 is a diagram showing the entire vehicle. 図2は、物体検出システムのブロック図である。FIG. 2 is a block diagram of the object detection system. 図3は、レーダ装置とカメラを備えた画像処理装置の物体検出範囲を示した図である。FIG. 3 is a diagram illustrating an object detection range of an image processing apparatus including a radar apparatus and a camera. 図4は、物体の情報を周波数とパワーで表した図である。FIG. 4 is a diagram showing object information in terms of frequency and power. 図5は、カメラを備えた画像処理装置による物体検出の画像を示した図である。FIG. 5 is a diagram illustrating an image of object detection by an image processing apparatus including a camera. 図6は、電子制御装置の処理フローチャートである。FIG. 6 is a process flowchart of the electronic control device. 図7は、ナビゲーション装置と各種センサを備えた物体検出システムのブロック図である。FIG. 7 is a block diagram of an object detection system including a navigation device and various sensors. 図8は、カーブでのレーダ装置とカメラを備えた画像処理装置による物体検出範囲を示した図である。FIG. 8 is a diagram showing an object detection range by an image processing device including a radar device and a camera at a curve. 図9は、カーブでのカメラを備えた画像処理装置による物体検出の画像を示した図である。FIG. 9 is a diagram illustrating an image of object detection by an image processing apparatus including a camera on a curve. 図10は、走行情報を用いた電子制御装置の処理フローチャートである。FIG. 10 is a process flowchart of the electronic control device using the travel information.

以下では、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[実施の形態1]
<1−1.構成>
図1は、車両1の全体図である。車両1には、本実施の形態の物体検出システムが備える要素として、レーダ装置2、画像処理装置3及び電子制御装置4が設けられている。レーダ装置2は、車両前方のフロント部分に設けられている。レーダ装置2は、車両1と車外の物体間の距離、および、車両1からみた車外の物体の角度(以下、「物体の位置」という。)、車両1からみた車外の物体の速度である車両1と車外の物体との相対速度、または、車外の物体の絶対速度(以下、「速度情報」という。)を検出する。なお、レーダ装置2の車両1への搭載位置は車両前方のフロント部分に限らず、車両1の後方や側方に設けても良い。
[Embodiment 1]
<1-1. Configuration>
FIG. 1 is an overall view of the vehicle 1. The vehicle 1 is provided with a radar device 2, an image processing device 3, and an electronic control device 4 as elements provided in the object detection system of the present embodiment. The radar device 2 is provided at a front portion in front of the vehicle. The radar device 2 is a vehicle having a distance between the vehicle 1 and an object outside the vehicle, an angle of the object outside the vehicle as viewed from the vehicle 1 (hereinafter referred to as “object position”), and a speed of the object outside the vehicle as viewed from the vehicle 1. The relative speed between 1 and an object outside the vehicle, or the absolute speed of an object outside the vehicle (hereinafter referred to as “speed information”) is detected. The mounting position of the radar device 2 on the vehicle 1 is not limited to the front portion in front of the vehicle, and may be provided at the rear or side of the vehicle 1.

レーダ装置2は、アンテナから送信した電波などの信号(以下、「送信波」という。)が車外の物体に当たってはね返り、そのはね返った信号を受信する(以下、「受信波」という。)。この送信波と受信波の時間差とドップラーシフトの情報に基づいて、レーダ装置2は物体の位置、および、速度情報を検出する。レーダ装置2の物体検出範囲はR1の範囲である。   The radar device 2 repels a signal such as a radio wave transmitted from an antenna (hereinafter referred to as “transmission wave”) and strikes an object outside the vehicle, and receives the rebound signal (hereinafter referred to as “reception wave”). Based on the time difference between the transmission wave and the reception wave and information on the Doppler shift, the radar apparatus 2 detects the position and speed information of the object. The object detection range of the radar device 2 is the range of R1.

画像処理装置3は、車両1のOLE_LINK2フロントガラスの車室内天井付近OLE_LINK2に設けられている。画像処理装置3は、検出範囲C1を撮影して電子的に画像を取得するカメラを備えており、これらの範囲の撮影による得られる画像内の物体の位置や大きさを検出する。カメラを備えた画像処理装置3の車両1への搭載位置はフロントガラスの車室内天井付近限らず、車両の内外で後方や側方に設けても良い。   The image processing device 3 is provided in the OLE_LINK 2 near the vehicle interior ceiling of the OLE_LINK 2 windshield of the vehicle 1. The image processing apparatus 3 includes a camera that captures the detection range C1 and electronically acquires an image, and detects the position and size of an object in an image obtained by capturing these ranges. The mounting position of the image processing apparatus 3 provided with the camera on the vehicle 1 is not limited to the vicinity of the ceiling of the vehicle interior of the windshield, and may be provided on the rear or side of the vehicle inside and outside.

電子制御装置4は、車両1の車両本体内部に設けられている。電子制御装置4はレーダ装置2、および、画像処理装置3から得られた車外の物体の情報(物体の位置、速度情報、角度情報、物体から跳ね返ってレーダ装置2のアンテナが受信した受信波の反射強度、物体の画像上の位置、および、物体の大きさなど)を用いて車外の物体の種類を判定し、車外の物体と車両1との衝突の可能性に応じて車両制御を行う。   The electronic control unit 4 is provided inside the vehicle body of the vehicle 1. The electronic control unit 4 receives information on an object outside the vehicle obtained from the radar device 2 and the image processing device 3 (object position, velocity information, angle information, and a received wave received by the antenna of the radar device 2 by bouncing off the object). The type of the object outside the vehicle is determined using the reflection intensity, the position of the object on the image, the size of the object, etc., and the vehicle is controlled according to the possibility of the collision between the object outside the vehicle and the vehicle 1.

車両制御は車両1と車外の物体との衝突の危険性を警報によりドライバーなどの乗員に報知したり、衝突前に運転操作に自動的に介入して、ブレーキをかけたり、ステアリングを所定の方向に操作することで、車外の物体との衝突を避ける。また、シートベルト5を矢印方向に自動的に引いて衝突時にドライバーなどの乗員の体を固定したり、衝突時にヘッドレスト6を矢印方向に移動させて衝突の衝撃を緩和し、ドライバーなどの乗員の安全を確保する車両制御もある。   Vehicle control notifies the driver and other passengers of the danger of a collision between the vehicle 1 and an object outside the vehicle, automatically intervenes in the driving operation before the collision, applies the brakes, or steers the steering in a predetermined direction. To avoid collisions with objects outside the vehicle. Also, the seat belt 5 is automatically pulled in the direction of the arrow to fix the body of the driver or other occupant during the collision, or the headrest 6 is moved in the direction of the arrow during the collision to alleviate the impact of the collision. There are also vehicle controls that ensure safety.

図2は、物体検出システム10のブロック図である。レーダ装置2はアンテナ12から送信波を出力し、車外の物体から跳ね返った受信波を受信する。レーダ制御部22は送信波を生成したり、アンテナ21が受信した受信波と送信波とをミキシングすることにより得られた送信波と受信波との時間差分とドップラーシフト分の情報をビート信号として算出する。レーダ制御部22は算出されたビート信号を高速フーリエ変換して車両1と車外の物体との距離情報と速度情報とを算出する。   FIG. 2 is a block diagram of the object detection system 10. The radar apparatus 2 outputs a transmission wave from the antenna 12 and receives a reception wave bounced off an object outside the vehicle. The radar control unit 22 generates a transmission wave or mixes the reception wave and the transmission wave received by the antenna 21 with the time difference between the transmission wave and the reception wave and information on the Doppler shift as a beat signal. calculate. The radar controller 22 performs fast Fourier transform on the calculated beat signal to calculate distance information and speed information between the vehicle 1 and an object outside the vehicle.

ここで、レーダ装置2による物体検出の具体的な例として、図3及び図4を用いて説明する。図3はレーダ装置とカメラとを備えた画像処理装置3の物体検出範囲を示した図であり、図4は物体の情報を周波数とパワーで表した図である。   Here, a specific example of object detection by the radar apparatus 2 will be described with reference to FIGS. FIG. 3 is a diagram illustrating an object detection range of the image processing apparatus 3 including a radar device and a camera, and FIG. 4 is a diagram illustrating object information in terms of frequency and power.

図3に示すようにレーダ装置2の検出範囲R1の中には、マンホール101、人102、対向車両103、および、遠方車両104がある。車両1との距離は近い順番からマンホール101、人102、対向車両103、遠方車両104である。これらの101から104の物体の情報を周波数とパワーで表したものが図4の図となる。図4の物体の情報を周波数とパワーで表した図は、横軸を周波数、縦軸をパワーとする表の中に物体の検出結果が表示されている。横軸の周波数は車両1と物体との距離を示すものであり、周波数が高くなるにつれて車両1と物体との距離は離れていることとなる。   As shown in FIG. 3, the manhole 101, the person 102, the oncoming vehicle 103, and the distant vehicle 104 are included in the detection range R <b> 1 of the radar device 2. The distance from the vehicle 1 is the manhole 101, the person 102, the oncoming vehicle 103, and the distant vehicle 104 in order from the closest. FIG. 4 shows information of these objects 101 to 104 expressed by frequency and power. The object information of FIG. 4 represented by frequency and power shows the detection result of the object in the table with the horizontal axis representing frequency and the vertical axis representing power. The frequency on the horizontal axis indicates the distance between the vehicle 1 and the object, and the distance between the vehicle 1 and the object increases as the frequency increases.

また、縦軸のパワーは、物体からの受信波の反射強度を示すものである。したがって、車両など反射する面積が広く電波などの信号が跳ね返りやすい(表面の信号の反射率が高い)場合はパワーは強くなり、車両1からの距離が近いほどパワーは強くなる。また、反射する面積が狭く表面の反射率が低いほどパワーは弱くなり、車両1からの距離が遠いほどパワーは弱くなる。なお、図4の表の中で強弱様々な値を有する信号をピークという。   Further, the power on the vertical axis indicates the reflection intensity of the received wave from the object. Therefore, the power increases when the reflected area is large and a signal such as a radio wave is likely to rebound (the reflectance of the surface signal is high), and the power increases as the distance from the vehicle 1 decreases. Further, the power is weaker as the reflection area is smaller and the surface reflectance is lower, and the power is weaker as the distance from the vehicle 1 is farther. In the table of FIG. 4, signals having various values are called peaks.

このピークが図3の物体のいずれに対応しているのかをみると、マンホール101の物体の情報は、図4に示す複数のピークの中で所定の閾値hを越えて、かつ、車両1から最も近い距離にあるピークAに該当する。ここで、所定の閾値は検出物体の中で最も反射強度が弱くなる人を検出できる値としたものであり、閾値を超えないピークはノイズとみなして物体としての検出対象とはしない。   Looking at which of the objects in FIG. 3 corresponds to this peak, the information of the object in the manhole 101 exceeds a predetermined threshold value h among the plurality of peaks shown in FIG. Corresponds to peak A at the closest distance. Here, the predetermined threshold is a value that can detect a person whose reflection intensity is the weakest among the detected objects, and a peak that does not exceed the threshold is regarded as noise and is not a detection target as an object.

次にマンホール101の次に車両1から近い距離にある人102の物体情報は、図4のピークBに該当し、対向車両103はピークCに該当し、遠方車両104はピークDに該当する。ここで閾値hを超えて反射強度が人102と同じくらいの強度を有するピークNは図3の中のどの物体にも該当しない。人のように反射強度の弱い物体を検出するためには閾値hをできるだけ下げて、物体を検出するパワーの閾値hを超えるピークを物体の情報として抽出する必要があるが、パワーの閾値hを下げた結果、物体として存在しないものも物体の情報を有するピークとして抽出する可能性がある。このように本来存在しない物体の情報を物体が存在するものとして抽出した場合の処理については、後に述べる電子制御装置4による画像情報の処理により詳細に述べる。   Next, the object information of the person 102 at the closest distance from the vehicle 1 after the manhole 101 corresponds to the peak B in FIG. 4, the oncoming vehicle 103 corresponds to the peak C, and the far vehicle 104 corresponds to the peak D. Here, the peak N exceeding the threshold value h and having a reflection intensity similar to that of the person 102 does not correspond to any object in FIG. In order to detect an object with low reflection intensity such as a person, it is necessary to lower the threshold value h as much as possible and extract a peak exceeding the power threshold value h for detecting the object as object information. As a result of lowering, there is a possibility that even a non-existing object is extracted as a peak having object information. The processing in the case of extracting information on an object that does not originally exist as the presence of the object will be described in detail by processing image information by the electronic control unit 4 described later.

また、図4において、対向車両103に対応するピークC、及び、遠方車両104に対応するピークDに関しては、両方のピークともパワーの閾値hを超えており、ピークC、ピークDの順番に車両1からの距離が離れた状態となっている。   In FIG. 4, regarding the peak C corresponding to the oncoming vehicle 103 and the peak D corresponding to the distant vehicle 104, both peaks exceed the power threshold value h, and the vehicle is in the order of the peak C and the peak D. The distance from 1 is in a state of being separated.

なお、車両1からみた各物体の角度については、アンテナ12を所定の角度(例えば最大振角30度)に振ってスキャンを行う方式の場合は、アンテナの振角と受信波を対応付けて物体の角度を算出する。アンテナ12を振らずにアンテナを所定の方向に固定したままスキャンを行う場合は、図4の各ピークごとに有している受信波の位相差情報から角度を算出する。   In addition, regarding the angle of each object viewed from the vehicle 1, in the case of scanning with the antenna 12 swung to a predetermined angle (for example, a maximum swing angle of 30 degrees), the antenna swing angle and the received wave are associated with each other. Is calculated. When scanning is performed with the antenna fixed in a predetermined direction without shaking the antenna 12, the angle is calculated from the phase difference information of the received wave for each peak in FIG.

次に図2に戻って、画像処理装置3および電子制御装置4の説明を行う。画像処理装置3はレーダ装置2の物体検出範囲R1と重なる範囲であるC1の範囲をカメラ13を用いて撮影する。カメラ13と電気的に接続されているカメラ制御部23は、後述する電子制御装置4の情報に基づいて、撮影した1フレームの画像の中から所定の画像範囲のみに係る画像を電子制御装置4へ送信する。   Next, returning to FIG. 2, the image processing device 3 and the electronic control device 4 will be described. The image processing device 3 uses the camera 13 to photograph the range C1 that is the range that overlaps the object detection range R1 of the radar device 2. The camera control unit 23 electrically connected to the camera 13 generates an image related to only a predetermined image range from one framed image based on information of the electronic control device 4 to be described later. Send to.

電子制御装置4は、レーダ装置2および画像処理装置3からの情報を受信するCPU14と、このCPU14に電気的に接続されているメモリ24とを備えている。CPU14は、レーダ装置2および画像処理装置3からの物体の位置、速度情報、および、物体の種類などの情報を受けて、後述する警報器17、ブレーキ27、ステアリング37を操作した車両制御を行う。また、メモリ24には物体の種類を判別するための情報が記憶されている。物体の種類を判別する情報の例としては、画像における物体の大きさを判定するための物体各種のテンプレート情報などである。   The electronic control device 4 includes a CPU 14 that receives information from the radar device 2 and the image processing device 3, and a memory 24 that is electrically connected to the CPU 14. The CPU 14 receives information such as the object position, speed information, and object type from the radar device 2 and the image processing device 3, and performs vehicle control by operating an alarm device 17, a brake 27, and a steering wheel 37, which will be described later. . The memory 24 stores information for determining the type of object. Examples of information for determining the type of an object include template information for various objects for determining the size of an object in an image.

電子制御装置4及び画像処理装置3が処理を行う画像の具体例を図3と図5とを用いて説明する。図5は、カメラを備えた画像処理装置3により取得された画像を示した図である。図3では画像処理装置3の撮影範囲であるC1の範囲内にはマンホール101、人102、対向車両103、および、遠方車両104がある。なお、レーダ装置2により検出され、図4のピークNとして説明したノイズは検出範囲には物体として存在しない。   Specific examples of images processed by the electronic control device 4 and the image processing device 3 will be described with reference to FIGS. 3 and 5. FIG. 5 is a diagram illustrating an image acquired by the image processing apparatus 3 including a camera. In FIG. 3, there are a manhole 101, a person 102, an oncoming vehicle 103, and a distant vehicle 104 within a range of C <b> 1 that is a shooting range of the image processing apparatus 3. Note that the noise detected by the radar device 2 and described as the peak N in FIG. 4 does not exist as an object in the detection range.

画像処理装置3により撮影した画像には図5に示すように、マンホール101、人102、対向車両103、および、遠方車両104が存在している。そして、それぞれの物体の画像の位置には×印が付されている。これらの×印はレーダ装置2により検出された物体の情報に対応して付されており、個々の×印が車両1との距離情報、速度情報、角度情報、および、反射強度の情報を有しており、電子制御装置4は、これらのレーダ装置2の物体情報の中から、距離と角度情報に基づいてそれぞれの物体が1フレームの画像上のどの位置に対応しているかを判別する。また、電子制御装置4は、速度情報と反射強度の情報から、個々の物体の情報である×印が組み合わされてひとつの物体を構成しているか否かも判定し、組み合わせた範囲の大きさなどの情報から物体の種類を予測している。なお、画像の中では図4に示したノイズのピークNの情報も物体105として画像上に検出されている。   As shown in FIG. 5, the manhole 101, the person 102, the oncoming vehicle 103, and the distant vehicle 104 exist in the image captured by the image processing device 3. The position of the image of each object is marked with x. These X marks are attached corresponding to the information of the object detected by the radar device 2, and each X mark has distance information, speed information, angle information, and reflection intensity information with respect to the vehicle 1. The electronic control unit 4 determines which position on the image of one frame each object corresponds to from the object information of the radar device 2 based on the distance and angle information. Further, the electronic control unit 4 also determines whether or not the X mark, which is information on each object, is combined to form one object from the speed information and the reflection intensity information, and the size of the combined range, etc. The type of object is predicted from the information. In the image, the information on the noise peak N shown in FIG. 4 is also detected on the image as the object 105.

物体の種類の予測の具体例としては、例えば、マンホール101の絶対速度がゼロで反射強度が比較的強く、絶対速度がゼロで反射強度が比較的強いという同じ性質を有する反射点が周辺にないことから、複数の反射点を有する物体ではないことが判別できる。電子制御装置4は、電子制御装置4内のメモリ24に予め記憶している物体の種類の判別情報からマンホール101の物体の種類をマンホールと予測する。   As a specific example of object type prediction, for example, the manhole 101 has no reflection point in the periphery having the same property that the absolute velocity is zero and the reflection intensity is relatively strong, and the absolute velocity is zero and the reflection intensity is relatively strong. Therefore, it can be determined that the object is not an object having a plurality of reflection points. The electronic control unit 4 predicts the object type of the manhole 101 as a manhole from the object type determination information stored in advance in the memory 24 in the electronic control unit 4.

また、相対速度が比較的小さく反射強度が比較的弱い反射点で、同じ性質を有する反射点が周辺にないことから、電子制御装置4は、メモリ24の情報により人102の物体の種類を人と予測する。相対速度が比較的大きく反射強度が比較的強い反射点があり、かつ、同じ性質を有する反射点が近傍領域に複数あるため、電子制御装置4は、対向車両103の物体の種類を車両と予測する。また、相対速度は一定であるが、反射強度は比較的強く、同じ性質を有する反射点が近傍領域に複数あるため、電子制御装置4は、遠方車両104の物体の種類を車両と予測する。   In addition, since there is no reflection point in the vicinity with a reflection point having a relatively low relative velocity and a relatively low reflection intensity, the electronic control unit 4 determines the type of the object of the person 102 based on the information in the memory 24. Predict. Since there are reflection points having a relatively high relative velocity and a relatively strong reflection intensity, and there are a plurality of reflection points having the same properties in the vicinity region, the electronic control unit 4 predicts the object type of the oncoming vehicle 103 as a vehicle. To do. In addition, since the relative speed is constant, the reflection intensity is relatively strong, and there are a plurality of reflection points having the same property in the vicinity region, so the electronic control unit 4 predicts the type of the object of the distant vehicle 104 as a vehicle.

また、相対速度が比較的小さく反射強度が比較的弱い反射点で、同じ性質を有する反射点が周辺にないことから、電子制御装置4は、メモリ24の情報により物体105の物体の種類を人と予測する。   In addition, since there is no reflection point in the periphery with a reflection point having a relatively low relative velocity and a relatively low reflection intensity, the electronic control unit 4 determines the object type of the object 105 based on the information in the memory 24. Predict.

このようにして電子制御装置4は、レーダ情報から物体の種類を推定し、その物体の種類に応じて、メモリ24に予め記憶している物体の種類の判別情報に応じたサイズの画像範囲を選択して、その選択した画像範囲の切り取りの指示を画像処理装置3に行う。例えば、推定した物体の種類が歩行者であれば比較的小さな縦長のサイズの領域が選択される。また、推定した物体の種類が車両であれば比較的大きな横長のサイズの領域が選択される。この切り取りの指示に応答して、画像処理装置3は、指定された画像範囲について切り取りを行う。また、物体の種類の判別パターンはこれまで説明した人や車両以外にも二輪車両、電柱、歩道橋、鉄橋など様々な物体の種類に応じた判別パターンをメモリ24に記憶させることができ、これら種類の異なる物体のサイズに応じた領域を選択可能である。   In this way, the electronic control unit 4 estimates the object type from the radar information, and sets an image range of a size according to the object type determination information stored in advance in the memory 24 according to the object type. Then, the image processing apparatus 3 is instructed to cut out the selected image range. For example, if the estimated object type is a pedestrian, a region having a relatively small vertical size is selected. In addition, if the estimated object type is a vehicle, a relatively large horizontally long region is selected. In response to the cut instruction, the image processing apparatus 3 cuts the designated image range. In addition to the person and vehicle described above, the object type determination pattern can be stored in the memory 24 according to various object types such as two-wheeled vehicles, power poles, pedestrian bridges, and iron bridges. It is possible to select regions according to the sizes of different objects.

切り取られた画像は処理対象領域として画像処理装置3から電子制御装置4へ送信され、この処理対象領域のみを対象にして電子制御装置4により物体の種類判定のための画像認識が行われる。この際、当該処理対象領域を切り取る際に予測された物体の種類に応じた判定手法が用いられる。例えば、予測された物体の種類が人の場合の画像認識手法の例としては、レーダ情報に基づく候補物体の予測から人の大きさの画像範囲αを切り取り、その範囲を走査して画像の輝度の変化を検出する。所定の幅で輝度が変化していれば、その幅の大きさに該当する対象物を人と判別することができる。例えば、図5に示す物体102の場合では、中心軸LからX軸方向の左右対称に所定の幅を有していることから、当該物体の種類を人と判定することができる。一方で、同図に示す物体105の場合は、画像範囲βを切り取った画像を走査しても人の輝度変化にあたる画像の輝度の変化は検出されないことから、この判定結果により該当する物体の種類はなく、ノイズと判定する。   The cut image is transmitted as a processing target area from the image processing apparatus 3 to the electronic control apparatus 4, and image recognition for determining the type of the object is performed by the electronic control apparatus 4 only for the processing target area. At this time, a determination method according to the type of object predicted when the processing target area is cut out is used. For example, as an example of an image recognition method when the type of the predicted object is a person, the image size α of the person is cut out from the prediction of the candidate object based on the radar information, and the brightness of the image is scanned by scanning the range. Detect changes. If the luminance changes with a predetermined width, an object corresponding to the size of the width can be determined as a person. For example, in the case of the object 102 shown in FIG. 5, since it has a predetermined width symmetrically in the X-axis direction from the central axis L, the type of the object can be determined as a person. On the other hand, in the case of the object 105 shown in the figure, since the change in the luminance of the image corresponding to the change in the luminance of the person is not detected even if the image obtained by cutting the image range β is scanned, Not determined as noise.

また、予測された物体の種類が車両の場合の判定方法としては画像の輝度の変化を検出したエッジの部分から別方向に画像の輝度を検出し、検出した方向の輝度の変化の幅の大きさから対象物を判別する手法がある。例えば、図5では画像範囲γのX軸方向の画像走査により点Pの画像の輝度変化が検出された場合、次に点PからX軸方向ではなくY軸方向に画像の輝度変化を検出することで、対向車両103の物体の種類を車両と判定する。   In addition, as a determination method when the predicted object type is a vehicle, the brightness of the image is detected in a different direction from the edge portion where the change in the brightness of the image is detected, and the width of the change in the brightness in the detected direction is large. There is a method for discriminating an object. For example, in FIG. 5, when a change in the brightness of the image at the point P is detected by scanning the image range γ in the X-axis direction, the change in the brightness of the image is detected from the point P in the Y-axis direction instead of the X-axis direction. Thus, the object type of the oncoming vehicle 103 is determined to be a vehicle.

さらに、予測された物体の種類が人及び車両の双方の場合に用いることが可能な手法として、画像を走査して走査した画像の輝度の変化の範囲を検出して、予めメモリ24に記憶している対象物の大きさと形状のテンプレートを当てはめることで、対象物の種類を判別する手法もある。例えば図5では画像範囲θに車両のテンプレートを遠方車両104に当てはめることで、遠方車両104の物体の種類を車両と判定している。   Further, as a technique that can be used when the type of the predicted object is both a person and a vehicle, the range of luminance change of the scanned image is detected and stored in the memory 24 in advance. There is also a technique for discriminating the type of an object by applying a template of the size and shape of the object. For example, in FIG. 5, the object type of the far vehicle 104 is determined to be a vehicle by applying a vehicle template to the far vehicle 104 in the image range θ.

<1−2.動作>
電子制御装置4の処理を図6に示すフローチャートを用いて説明する。電子制御装置4はレーダ装置2からレーダ情報を受信する(ステップS101)。レーダ情報は、検出対象の候補物体(以下、「候補物体」という。)が有する情報であり、車両1と車外の物体との距離情報、速度情報、角度情報、および、反射強度の情報である。
<1-2. Operation>
The processing of the electronic control device 4 will be described with reference to the flowchart shown in FIG. The electronic control device 4 receives radar information from the radar device 2 (step S101). The radar information is information held by a candidate object to be detected (hereinafter referred to as “candidate object”), and is information on distance between the vehicle 1 and an object outside the vehicle, speed information, angle information, and information on reflection intensity. .

電子制御装置4はレーダ情報に含まれる車両と物体との距離情報に基づいて、複数の候補物体に対して車両1との距離が近い順に処理の優先順位付けを行う(ステップS102)。これは車両1との距離が近ければ、車両1との衝突可能性が高いと考えられることから、車両1のドライバーなどの乗員に対して早期の警告を行ったり、車両1の運転に介入するような車両制御を迅速に行う必要性があるためである。なお、本実施形態の優先順位付けは距離が比較的近い物体の優先順位を高く設定することを例としたが、速度情報を優先順位付けの要素として、例えば、相対速度が大きい順番に優先順位付けを行ったり、車両1との距離が比較的近く、かつ、相対速度が大きい候補物体の優先順位を高くするようにしてもよい。   Based on the distance information between the vehicle and the object included in the radar information, the electronic control unit 4 prioritizes the processes in order of increasing distance from the vehicle 1 to a plurality of candidate objects (step S102). Since it is considered that the possibility of a collision with the vehicle 1 is high if the distance to the vehicle 1 is short, an early warning is given to an occupant such as a driver of the vehicle 1 or the vehicle 1 is intervened. This is because such vehicle control needs to be performed quickly. The prioritization according to the present embodiment is an example in which the priority of an object with a relatively short distance is set high. However, for example, the priority is set in descending order of relative speed as an element of prioritization. The priority order of candidate objects that are relatively close to the vehicle 1 and have a large relative speed may be increased.

次に電子制御装置4は処理の優先順位の高い候補物体からその物体の種類を予測する(ステップS103)。具体的には、候補物体がそれぞれ有しているレーダ情報から物体の種類を予測するもので、例えば距離が比較的近くて、相対速度が比較的大きく、反射強度の比較的強いレーダ情報を有する候補物体は車両と予測する。なお、車両はレーダ装置2の送信波を車体複数の箇所で跳ね返すため、レーダ情報の中でもほぼ同一の距離、相対速度、および、反射強度を有するレーダ情報が近い領域に複数ある場合は、これらのレーダ情報を同一の物体を構成する複数の反射点として扱い、1つの物体を形成する反射点が多いほど大きな物体であるとして物体の種類の予測を行う。   Next, the electronic control unit 4 predicts the type of the object from candidate objects having a high processing priority (step S103). Specifically, it predicts the type of object from the radar information that each candidate object has. For example, it has radar information with a relatively close distance, a relatively large relative velocity, and a relatively strong reflection intensity. The candidate object is predicted to be a vehicle. Since the vehicle rebounds the transmission wave of the radar device 2 at a plurality of locations in the vehicle body, when there are a plurality of radar information having almost the same distance, relative speed, and reflection intensity in the radar information, Radar information is treated as a plurality of reflection points that constitute the same object, and the type of object is predicted as a larger object as the number of reflection points forming one object increases.

距離が近くても相対速度が比較的小さく、反射強度は弱く、反射点の数が少ない場合は人と予測する。また、反射強度が強い場合で、絶対速度がゼロの場合は反射点の数が少ない場合は、道路にある静止物(例えば、マンホールやガードレールなど)と予測する。   Even if the distance is short, the relative velocity is relatively small, the reflection intensity is weak, and if the number of reflection points is small, the person is predicted. When the reflection intensity is strong and the absolute speed is zero, if the number of reflection points is small, it is predicted that the object is a stationary object on the road (for example, a manhole or a guardrail).

電子制御装置4は、候補物体のレーダ情報と物体の種類の情報に基づいて、該当する候補物体が画像処理装置3にある1フレームの画像の中のどの座標に該当するかを算出する(ステップS104)。具体的には処理の優先順位の高い候補物体のレーダ情報の距離と角度の情報により、画像処理装置3により撮影された1フレームの画像の中の座標位置と候補物体とを対応させる。また、予測した物体の種類に応じて、その座標位置を基準とした1フレームの画像の中の所定の範囲を算出する。   Based on the radar information of the candidate object and the information on the type of the object, the electronic control unit 4 calculates which coordinate in the one-frame image in the image processing device 3 the corresponding candidate object corresponds to (step). S104). Specifically, the coordinate position in the image of one frame photographed by the image processing device 3 is associated with the candidate object based on the information on the distance and angle of the radar information of the candidate object having a high processing priority. In addition, a predetermined range in one frame image based on the coordinate position is calculated according to the predicted object type.

電子制御装置4は予測した物体の種類に応じた画像の座標情報を画像処理装置3に送信する(ステップS105)。画像の範囲の座標情報を受信した画像処理装置3は、カメラ13を用いて撮影した1フレームの物体の種類に応じたサイズの画像範囲を切り出して、電子制御装置4に送信する。例えば、予測した物体の種類が歩行者であれば比較的小さな縦長の領域が切り出される。また、予測した物体の種類が車両であれば比較的大きな横長の領域が切り出される。なお、物体の種類の判別パターンはこれまで説明した人や車両などの物体以外にも二輪車両、電柱、歩道橋、鉄橋など様々な物体の種類に応じた判別パターンをメモリ24に記憶させることができ、これら種類の異なる物体のサイズに応じた領域を選択して切り出すことが可能である。   The electronic control unit 4 transmits image coordinate information corresponding to the predicted object type to the image processing unit 3 (step S105). The image processing device 3 that has received the coordinate information of the image range cuts out an image range of a size corresponding to the type of object of one frame captured using the camera 13 and transmits it to the electronic control device 4. For example, if the predicted object type is a pedestrian, a relatively small vertically long region is cut out. If the predicted object type is a vehicle, a relatively large horizontally long region is cut out. In addition to the objects such as people and vehicles described so far, the object 24 can be stored in the memory 24 according to various object types such as two-wheeled vehicles, utility poles, pedestrian bridges, and iron bridges. It is possible to select and cut out regions according to the sizes of these different types of objects.

電子制御装置4は画像処理装置3が送信した画像情報を処理対象領域として受信して(ステップS106)、受信した画像情報のみを対象に物体の種類判定を行う(ステップS107)。物体の種類の判定は、画像を走査判定して、対象画像の輝度の変化のある範囲を検出して、物体の種類を判定する。物体の種類の判定手法としては、処理対象領域に対応する物体の予測された種類に応じた判定手法を用いる。例えば、変化のある範囲の中心をとり、変化の範囲が対称性をみて物体の種類を判定する手法がある。また、所定の方向に走査して、変化がある点から交差する方向に走査方向を変更して、輝度の変化範囲に基づいて物体の種類を判定する手法がある。さらに、予めメモリ24に保存しているテンプレートを輝度が変化している画像の範囲に当てはめて、物体の種類を判定する手法がある。   The electronic control device 4 receives the image information transmitted by the image processing device 3 as a processing target area (step S106), and performs object type determination only on the received image information (step S107). The object type is determined by scanning the image, detecting a range where the luminance of the target image is changed, and determining the object type. As the object type determination method, a determination method according to the predicted type of the object corresponding to the processing target region is used. For example, there is a method of determining the type of an object by taking the center of a range with a change and observing the symmetry of the range of the change. Further, there is a method of scanning in a predetermined direction, changing the scanning direction from a point where there is a change to a direction intersecting, and determining the type of the object based on the luminance change range. Furthermore, there is a method of determining the type of an object by applying a template stored in advance in the memory 24 to an image range in which the luminance changes.

また、気温・湿度の変化により画像センサが検出する信号のS/N比が悪化し、弱い光の輝度の検出が困難となる場合がある。そのため、気温や湿度の変化により画像の輝度を検出する閾値を所定の値に設定することもできる。   In addition, the S / N ratio of the signal detected by the image sensor may deteriorate due to changes in temperature and humidity, and it may be difficult to detect weak light luminance. Therefore, it is possible to set a threshold value for detecting the brightness of an image based on changes in temperature and humidity to a predetermined value.

物体の種類判定の結果、その物体が車両制御の対象物である場合(ステップS108がYes)は、警報器17からの警報による報知を行うか否かを判断する(ステップS109)。物体が車両制御の対象でない場合は、処理を終了する(ステップS108がNo)。   As a result of the object type determination, if the object is an object for vehicle control (step S108: Yes), it is determined whether or not notification by the alarm from the alarm device 17 is performed (step S109). If the object is not a vehicle control target, the process ends (No in step S108).

警報による報知が必要な場合(ステップS109がYes)は、警報器17から警報を出力する(ステップS110)。警報は車室内に備えているナビゲーション装置から音声による警告を行ったり、映像による警告を行う。   When notification by an alarm is necessary (step S109 is Yes), an alarm is output from the alarm device 17 (step S110). As for the alarm, an audio warning is given from a navigation device provided in the passenger compartment, or a video warning is given.

警報を出力した後、または、警報による報知が必要ない場合(ステップS109がNo)は、運転介入が必要であるか否かを判断する(ステップS111)。運転介入が必要な場合(ステップS111がYes)は、ブレーキ27やステアリング37を自動的に操作して運転介入を行う(ステップS112)。運転介入の例としては、車外の物体に車両1が衝突する可能性が有る場合に、自動的にブレーキ27を操作して車両を停止させたり、物体が存在しない方向にステアリング37を自動的に操作するものがある。また、衝突前にシートベルト5を固定したり、ヘッドレスト6を固定したりすることで、衝突に備えて車両1のドライバーなどの乗員の安全を確保できる。   After outputting the alarm or when notification by the alarm is not necessary (No in Step S109), it is determined whether or not driving intervention is necessary (Step S111). When driving intervention is necessary (Yes in step S111), driving intervention is performed by automatically operating the brake 27 and the steering wheel 37 (step S112). As an example of driving intervention, when there is a possibility that the vehicle 1 collides with an object outside the vehicle, the brake 27 is automatically operated to stop the vehicle, or the steering 37 is automatically operated in a direction in which no object exists. There is something to operate. Further, by fixing the seat belt 5 or the headrest 6 before the collision, it is possible to ensure the safety of a passenger such as a driver of the vehicle 1 in preparation for the collision.

運転介入が必要でない場合(ステップS111がNo)は、処理を終了する。例えばドライバーの操作により車外の物体との衝突が避けられる場合である。   If no driving intervention is required (No at step S111), the process is terminated. For example, a collision with an object outside the vehicle can be avoided by a driver's operation.

以上のように本実施の形態の物体検出システム10においては、電子制御装置4が、レーダ情報に基づく検出対象の候補物体の画像中の座標を導出するとともに、レーダ情報に基づいて候補物体の種類が予測する。そして、電子制御装置4は、画像中における候補物体の導出された座標の周辺における候補物体の予測された種類に応じたサイズの領域を処理対象領域として指定し、その画像領域について画像処理装置3に切り出しを行わせる。この切り出された画像領域のみを対象に物体の検出処理がなされる。これにより、電子制御装置4のCPU14が行う画像処理は検出対象とする物体が存在する画像領域に限定され、物体の種類を判定する画像処理負荷を軽減する。また、レーダ装置を採用したことにより、それ自体に負荷がかかるが、画像処理領域を限定することによる画像処理負荷が大幅に減少することから、物体検出システム全体の処理負荷の軽減が可能となる。さらに、電子制御装置4のCPU14の処理負荷軽減により、車外の物体に対する車両制御を迅速に行うことができる。   As described above, in the object detection system 10 according to the present embodiment, the electronic control unit 4 derives the coordinates in the image of the candidate object to be detected based on the radar information, and the type of candidate object based on the radar information. Predict. Then, the electronic control unit 4 designates a region having a size corresponding to the predicted type of the candidate object in the vicinity of the coordinates derived from the candidate object in the image as the processing target region, and the image processing device 3 for the image region. To cut out. An object detection process is performed only for the cut-out image region. Thereby, the image processing performed by the CPU 14 of the electronic control device 4 is limited to the image area where the object to be detected exists, and the image processing load for determining the type of the object is reduced. In addition, the use of the radar device places a load on itself, but the image processing load by limiting the image processing area is greatly reduced, so that the processing load of the entire object detection system can be reduced. . Furthermore, by reducing the processing load of the CPU 14 of the electronic control unit 4, vehicle control for an object outside the vehicle can be performed quickly.

また、レーダ装置2からの情報により予め物体の種類を予測して、電子制御装置4のCPU14による物体の種類判定において予測された種類に応じた判定手法を用いる。このため、物体の種類判定を何度もやり直す必要はなく物体の種類判定が迅速に行える。さらに、電子制御装置4のCPU14の処理負荷軽減により、物体に対する車両制御を迅速に行うことができる。   Further, the type of the object is predicted in advance based on the information from the radar device 2, and a determination method according to the type predicted in the type determination of the object by the CPU 14 of the electronic control device 4 is used. Therefore, it is not necessary to repeat the object type determination many times, and the object type determination can be performed quickly. Furthermore, the vehicle control of the object can be quickly performed by reducing the processing load of the CPU 14 of the electronic control unit 4.

また、候補物体が複数あるときには、複数の候補物体のうち車両との距離の近い順から処理対象とするため、車両制御の対象となる可能性の高い物体から順に検出することができ、ドライバーなど乗員の安全確保を迅速に行うことが可能となる。   In addition, when there are a plurality of candidate objects, the processing objects are processed in order from the shortest distance to the vehicle among the plurality of candidate objects, so it is possible to detect from the object that is most likely to be the target of vehicle control, such as a driver. It is possible to ensure the safety of passengers quickly.

[実施の形態2]
<2−1.構成>
図7はナビゲーション装置と各種センサを備えた物体検出システムのブロック図であり、実施の形態1の図2に示したブロック図と主に異なる点は、ナビゲーション装置8と車速センサ19、ステアリングセンサ20、ヨーレートセンサ21の各種センサを新たに備えた点である。以下、実施の形態1に記載した動作内容は省略し、異なる動作内容について述べる。
[Embodiment 2]
<2-1. Configuration>
FIG. 7 is a block diagram of an object detection system including a navigation device and various sensors. The main difference from the block diagram shown in FIG. 2 of the first embodiment is that the navigation device 8, the vehicle speed sensor 19, and the steering sensor 20. In addition, various sensors of the yaw rate sensor 21 are newly provided. Hereinafter, the operation content described in the first embodiment will be omitted, and different operation content will be described.

ナビゲーション装置8は、表示部18とナビゲーション制御部28を備えており、表示部18はドライバーなどの乗員に対して映像や音声で地図などのナビゲーション情報を通知したり、音楽やデジタルTVなどのオーディオコンテンツ情報を提供する。ナビゲーション制御部はこれらの情報をドライバーなどの乗員に提供するための制御を行う。   The navigation device 8 includes a display unit 18 and a navigation control unit 28, and the display unit 18 notifies navigation information such as a map or the like to a driver or other occupant by video or voice, or audio such as music or digital TV. Provide content information. The navigation control unit performs control for providing such information to an occupant such as a driver.

車速センサ19は車両の速度情報を電子制御装置4に送信する。ステアリングセンサ29は車両のステアリングの舵角を検出して電子制御装置4に送信する。ヨーレートセンサ39は車両1の車体の向きの変化を角速度で検出して電子制御装置4に送信する。電子制御装置4はこれらの車両の走行状態に応じて、車両制御の対象とする候補物体の検出を行う。   The vehicle speed sensor 19 transmits vehicle speed information to the electronic control unit 4. The steering sensor 29 detects the steering angle of the vehicle steering and transmits it to the electronic control unit 4. The yaw rate sensor 39 detects the change in the direction of the vehicle body of the vehicle 1 by the angular velocity and transmits it to the electronic control unit 4. The electronic control unit 4 detects candidate objects to be subjected to vehicle control in accordance with the traveling state of these vehicles.

次にナビゲーション装置8および各種センサを用いて行う候補物体検出の具体例について、図8のカーブでのレーダ装置とカメラを備えた画像処理装置による物体検出範囲を示した図、および、図9のカーブでのカメラを備えた画像処理装置による物体検出の画像を示した図を用いて説明する。   Next, for a specific example of candidate object detection performed using the navigation device 8 and various sensors, a diagram showing an object detection range by an image processing device including a radar device and a camera in the curve of FIG. 8, and FIG. A description will be given with reference to a diagram showing an image of object detection by an image processing apparatus equipped with a camera on a curve.

図8では車両1に備えられたレーダ装置2の物体検出範囲R1とカメラを備えた画像処理装置3のC1、C2の物体検出範囲が重なっている。レーダ装置2および画像処理装置3の物体検出範囲には人201とガードレール202が候補物体として入っている。ここで、車両1に備えられたナビゲーション装置4は車両1の進行方向の道路が車両1の現在の位置から所定の距離進むとカーブしていることを検出している。ここで本実施形態のカーブ半径は130m以下の場合をカーブとするが、これに限らず、本実施形態に述べる効果を有する場合は本実施形態のカーブ半径の値以下のカーブであってもよい。   In FIG. 8, the object detection range R1 of the radar device 2 provided in the vehicle 1 and the object detection ranges of C1 and C2 of the image processing device 3 provided with a camera overlap. A person 201 and a guard rail 202 are included as candidate objects in the object detection ranges of the radar apparatus 2 and the image processing apparatus 3. Here, the navigation device 4 provided in the vehicle 1 detects that the road in the traveling direction of the vehicle 1 is curved when traveling a predetermined distance from the current position of the vehicle 1. Here, the curve radius of the present embodiment is a curve of 130 m or less. However, the present invention is not limited to this, and the curve radius may be equal to or smaller than the curve radius value of the present embodiment if the effects described in the present embodiment are provided. .

レーダ装置2のレーダ情報として、車両1との距離が例えば20m以上離れているような所定の距離を有し、絶対速度がゼロであり、角度は略進行方向正面であり、反射強度が強いピーク(ピークを検出する閾値を超えるパワーを有するピーク)が存在していれば、電子制御装置4から画像処理装置3への所定範囲を切り出す候補物体の対象としてこのレーダ情報を選択しない、または、候補物体として処理の優先順位付けを行わない。   The radar information of the radar apparatus 2 has a predetermined distance such that the distance from the vehicle 1 is, for example, 20 m or more, the absolute velocity is zero, the angle is substantially in front of the traveling direction, and the reflection intensity is strong. If there is (a peak having a power exceeding the threshold for detecting the peak), this radar information is not selected as a candidate object for cutting out a predetermined range from the electronic control unit 4 to the image processing unit 3, or a candidate Do not prioritize processing as objects.

自車線内のカーブの入り口手前でカードレール202のような静止物は車両1の制御対象としなくとも、ドライバーのステアリング操作で回避できる。自動的な運転介入を行うことにより、カーブの角度に沿ったステアリングの操作よりも余計にステアリングを操作するような誤った車両制御を行う危険性がある。したがって、車両1がカーブに差し掛かる前に検出した自車線内のガードレールのような静止物は、車両制御の対象とはしない。   A stationary object such as the card rail 202 just before the entrance of the curve in the own lane can be avoided by the driver's steering operation without being controlled by the vehicle 1. By performing automatic driving intervention, there is a risk of erroneous vehicle control such that the steering is operated more than the steering operation along the angle of the curve. Therefore, a stationary object such as a guard rail in the own lane detected before the vehicle 1 reaches the curve is not subject to vehicle control.

なお、ガードレール202のような絶対速度がゼロの静止物体のレーダ情報を車両制御の候補物体として選択しない条件としては、ナビゲーション装置4の情報により、その物体が自車線上にあり、かつ、車両1に備えられたステアリングセンサ29、または、ヨーレートセンサ39によって車両1がカーブに沿って走行していないことを示していることも含まれる。ここで、自車線上とは本実施例では一例として車両が所定の車線を走行している場合に、その走行方向の両端にある白線から白線の距離約2.5mの間に車両1が存在する状態をいうが、これに限られず本実施形態の効果を有する範囲が含まれる。   As a condition for not selecting radar information of a stationary object having a zero absolute speed such as the guard rail 202 as a candidate object for vehicle control, the object is on its own lane according to the information of the navigation device 4 and the vehicle 1 It is also included that the steering sensor 29 or the yaw rate sensor 39 provided in the above indicates that the vehicle 1 is not traveling along a curve. Here, on the own lane, in the present embodiment, as an example, when the vehicle is traveling in a predetermined lane, the vehicle 1 exists within a distance of about 2.5 m from the white line to the white line at both ends in the traveling direction. However, the present invention is not limited to this and includes a range having the effects of the present embodiment.

さらに、車両1がカーブの入り口に差し掛かり、ドライバーがステアリングをカーブの角度に沿って操作した場合は、その車の旋回の度合いに応じて、ステアリングセンサ29、ヨーレートセンサ39が車両1のカーブ走行状態を示す。車両1がカーブに沿って走行すると、レーダ装置2の検出範囲R2、および画像処理装置の検出範囲C1もカーブの角度に沿って移動する。その結果、レーダ情報により候補物体を検出していれば、車両1との距離や相対速度の情報に応じて優先順位付け行い、候補物体とし画像処理装置3が対象の範囲画像を切り取って、電子制御装置4で物体の種類判定を行い、車両制御の対象物であれば、その物体の状況に応じた車両制御を行うことが可能である。   Further, when the vehicle 1 reaches the entrance of the curve and the driver operates the steering along the angle of the curve, the steering sensor 29 and the yaw rate sensor 39 are in the curve running state of the vehicle 1 according to the degree of turning of the vehicle. Indicates. When the vehicle 1 travels along the curve, the detection range R2 of the radar device 2 and the detection range C1 of the image processing device also move along the angle of the curve. As a result, if the candidate object is detected based on the radar information, prioritization is performed according to the distance to the vehicle 1 and information on the relative speed, and the image processing apparatus 3 cuts out the target range image as the candidate object, and the electronic If the type of the object is determined by the control device 4 and the object is a vehicle control object, it is possible to perform the vehicle control according to the state of the object.

また、本実施形態の変形例としては、車両1が自車線上を走行中に車速センサ19からの車両1の速度情報を取得すると、速度と制動距離の関係から車両1の進行方向における対象物との衝突の可能性がある場合は、その物体を候補物体の処理の優先順位を高くして物体の種類判定を行い、迅速な車両制御を行うことができる。   As a modification of the present embodiment, when the vehicle 1 acquires speed information of the vehicle 1 from the vehicle speed sensor 19 while traveling on the own lane, the object in the traveling direction of the vehicle 1 is determined from the relationship between the speed and the braking distance. If there is a possibility of collision with the object, it is possible to determine the type of the object by increasing the priority of the candidate object processing, and to perform quick vehicle control.

具体的には、ナビゲーション装置4の情報から路面が凍結しているような場合は、車速センサ19による車両1の速度情報と制動距離の関係を算出する。特に凍結路面では乾燥路面よりも制動距離が2倍から3倍以上伸びることを含めて、乾燥路面では優先順位を低くしているような、車両1との距離が他の候補物体よりも離れているレーダ情報の候補物体の処理の優先順位を高くする。
<2−2.動作>
図10は走行情報を用いた電子制御装置の処理フローチャートである。電子制御装置4はレーダ装置2からレーダ情報を受信する(ステップS201)。
Specifically, when the road surface is frozen from the information of the navigation device 4, the relationship between the speed information of the vehicle 1 by the vehicle speed sensor 19 and the braking distance is calculated. In particular, the distance to the vehicle 1 is lower than the other candidate objects, such that the priority is lower on the dry road surface, including that the braking distance is extended two to three times or more on the frozen road surface than the dry road surface. The priority of processing of candidate objects of existing radar information is increased.
<2-2. Operation>
FIG. 10 is a process flowchart of the electronic control device using the travel information. The electronic control device 4 receives radar information from the radar device 2 (step S201).

次に、ナビゲーション装置4、車速センサ19、ステアリングセンサ29、または、ヨーレートセンサ39などの各種センサから車両1の走行情報を受信する(ステップS202)。ここで、走行情報とは上述のようにナビゲーション装置4から得られる道路のカーブや凍結の状態のほか道路の車線数、道路勾配、路面温度、気温、湿度などが含まれる。さらに、車両1の走行状態とは車両の速度や舵角が情報などである。   Next, the travel information of the vehicle 1 is received from various sensors such as the navigation device 4, the vehicle speed sensor 19, the steering sensor 29, or the yaw rate sensor 39 (step S202). Here, the traveling information includes the number of road lanes, road gradient, road surface temperature, temperature, humidity and the like in addition to the road curve and the frozen state obtained from the navigation device 4 as described above. Further, the traveling state of the vehicle 1 includes information such as the vehicle speed and the steering angle.

電子制御装置4は、ナビゲーション装置4、および、各種センサからの走行情報を候補物体の優先順位付けの情報とともに、レーダ情報に含まれる距離の情報に基づいて、複数の候補物体に対して優先順位付けを行う(ステップS203)。   The electronic control device 4 prioritizes the plurality of candidate objects based on the distance information included in the radar information together with the navigation device 4 and information on prioritization of the candidate objects. (Step S203).

具体的には、上述のように自車線上の進行路の所定の距離にカーブが存在する場合は、自車線上のガードレールなどのレーダ情報は電子制御装置4の物体の種類判定の対象としないように、候補物体として選択しない。または、候補物体としての処理の優先順位を他の候補物体よりも下げる。   Specifically, as described above, when there is a curve at a predetermined distance on the traveling path on the own lane, radar information such as a guardrail on the own lane is not subject to the object type determination of the electronic control unit 4. As such, it is not selected as a candidate object. Alternatively, the priority of processing as a candidate object is set lower than other candidate objects.

また、自車線上の道路が凍結している場合は、車両の速度と制動距離を考慮して、他の候補物体と比較して車両との距離が所定距離以上離れているレーダ情報も候補物体として、処理の優先順位を他の候補物体よりも上げる。   Also, if the road on the lane is frozen, the radar information that the distance from the vehicle is more than a predetermined distance compared to other candidate objects is also considered as a candidate object in consideration of the speed and braking distance of the vehicle As a result, the priority of processing is raised over other candidate objects.

次に電子制御装置4は処理の優先順位の高い候補物体からその物体の種類を予測し(ステップS204)、候補物体のレーダ情報と物体の種類の情報とに基づいて、該当する候補物体が画像処理装置3にある1フレームの画像の中のどの座標に該当するかを算出する(ステップS205)。   Next, the electronic control unit 4 predicts the type of the object from the candidate objects having a high processing priority (step S204), and the candidate object is imaged based on the radar information of the candidate object and the information of the object type. The coordinates corresponding to one frame image in the processing device 3 are calculated (step S205).

電子制御装置4は予測した物体の種類に応じた画像範囲の座標情報を画像処理装置3に送信する(ステップS206)。画像の範囲の座標の情報を受信した画像処理装置3は、カメラ13を用いて撮影した1フレームの物体の種類に応じた画像範囲を切り出して、電子制御装置4に送信する。   The electronic control unit 4 transmits the coordinate information of the image range corresponding to the predicted object type to the image processing device 3 (step S206). The image processing device 3 that has received the information of the coordinates of the image range cuts out an image range corresponding to the type of object of one frame imaged using the camera 13 and transmits the image range to the electronic control device 4.

電子制御装置4は画像処理装置3が送信した画像情報を受信して(ステップS207)、物体の種類判定を行う(ステップS208)。   The electronic control device 4 receives the image information transmitted by the image processing device 3 (step S207), and performs object type determination (step S208).

物体の種類判定の結果、その物体が車両制御の対象物である場合(ステップS209がYes)は、警報器17からの警報による報知を行うか否かを判断する(ステップS210)。物体が車両制御の対象でない場合は(ステップS209がNo)、処理を終了する。   As a result of the object type determination, if the object is an object for vehicle control (step S209 is Yes), it is determined whether or not notification by the alarm from the alarm device 17 is performed (step S210). If the object is not a target for vehicle control (No in step S209), the process ends.

警報による報知が必要な場合(ステップS210がYes)は、警報器17から警報を出力する(ステップS211)。警報は図示しない車室内ナビゲーション装置から音声による警告を出力したり、映像による警告を行う。   When notification by an alarm is necessary (step S210 is Yes), an alarm is output from the alarm device 17 (step S211). The alarm outputs a warning by voice from a vehicle interior navigation device (not shown) or gives a warning by video.

警報を出力した後、または、警報による報知が必要ない場合(ステップS210がNo)は、運転介入が必要であるか否かを判断する(ステップS212)。運転介入が必要な場合(ステップS212がYes)は、ブレーキ27やステアリング37を自動的に操作して運転介入を行う(ステップS213)。   After outputting the alarm or when notification by the alarm is not necessary (No in Step S210), it is determined whether or not driving intervention is necessary (Step S212). If driving intervention is necessary (Yes in step S212), the driving intervention is performed by automatically operating the brake 27 and the steering wheel 37 (step S213).

運転介入が必要でない場合(ステップS212がNo)は、処理を終了する。例えばドライバーの操作により車外の物体との衝突が避けられる場合である。   If driving intervention is not necessary (No in step S212), the process ends. For example, a collision with an object outside the vehicle can be avoided by a driver's operation.

以上のように、本実施形態では、ナビゲーション装置8、または、各種センサから得られる車両の走行状況を示す走行情報をレーダ装置の情報とあわせて用いることで、車両1が走行する状況に応じて、検出対象とする物体の存在する処理対象領域を選択できる。これにより、電子制御装置4のCPU14の処理負荷が軽減されるとともに、車両1の走行状態に応じた車両制御を迅速に行うことができる。   As described above, in the present embodiment, the traveling information indicating the traveling state of the vehicle obtained from the navigation device 8 or various sensors is used together with the information of the radar device, so that the vehicle 1 travels. A processing target area where an object to be detected exists can be selected. As a result, the processing load on the CPU 14 of the electronic control unit 4 is reduced, and vehicle control according to the traveling state of the vehicle 1 can be performed quickly.

また、車両制御の対象となる可能性の高い物体から順に検出することができ、ドライバーなど車両の乗員の安全確保を迅速に行うことができる。   Further, it is possible to detect in order from an object that is likely to be a target of vehicle control, and it is possible to quickly ensure the safety of a vehicle occupant such as a driver.

1・・・・・ 車両
2・・・・・ レーダ装置
3・・・・・ 画像処理装置
5・・・・・ シートベルト
6・・・・・ ヘッドレスト
12・・・・ アンテナ
13・・・・ カメラ
14・・・・ CPU
17・・・・ 警報器
22・・・・ レーダ制御部
23・・・・ カメラ制御部
27・・・・ ブレーキ
37・・・・ ステアリング
DESCRIPTION OF SYMBOLS 1 ... Vehicle 2 ... Radar device 3 ... Image processing device 5 ... Seat belt 6 ... Headrest 12 ... Antenna 13 ... Camera 14 ... CPU
17 .... Alarm 22 ... Radar control unit 23 ... Camera control unit 27 ... Brake 37 ... Steering

Claims (6)

車両に設けられ前記車両外の物体の位置と速度を検出するレーダ装置からのレーダ情報と、前記車両に設けられ前記レーダ装置の検出範囲と重なる領域を撮像するカメラで得られた画像とに基づいて、前記車両外の検出対象を検出する物体検出装置であって、
前記レーダ情報に基づく前記検出対象の候補物体の前記画像中の座標を導出する導出手段と、
前記レーダ情報に基づいて、前記候補物体の種類を予測する予測手段と、
前記画像中における前記候補物体の導出された座標の周辺の、当該候補物体の予測された種類に応じたサイズの領域を処理対象領域に設定する設定手段と、
前記画像中の前記処理対象領域のみを対象に前記検出対象を検出する検出手段と、
を有することを特徴とする物体検出装置。
Based on radar information from a radar device that detects the position and speed of an object outside the vehicle provided in a vehicle, and an image obtained by a camera that images a region that is provided in the vehicle and overlaps the detection range of the radar device. An object detection device for detecting a detection target outside the vehicle,
Derivation means for deriving coordinates in the image of the candidate object to be detected based on the radar information;
Prediction means for predicting the type of the candidate object based on the radar information;
Setting means for setting a region around the derived coordinates of the candidate object in the image and having a size corresponding to the predicted type of the candidate object as a processing target region;
Detecting means for detecting the detection target only for the processing target region in the image;
An object detection apparatus comprising:
請求項1記載の物体検出装置において、
前記検出手段は、前記処理対象領域から前記検出対象を検出するときに、当該処理対象領域に対応する前記候補物体の予測された種類に応じた判定手法を用いることを特徴とする物体検出装置。
The object detection device according to claim 1,
The detection unit uses a determination method according to a predicted type of the candidate object corresponding to the processing target region when detecting the detection target from the processing target region.
請求項1または2記載の物体検出装置において、
前記車両の走行状況を示す走行情報を取得する取得手段と、
前記走行情報に基づいて、前記レーダ情報に基づく前記候補物体の一部を処理対象として選択する手段、
をさらに備えることを特徴とする物体検出装置。
The object detection apparatus according to claim 1 or 2,
Obtaining means for obtaining traveling information indicating a traveling state of the vehicle;
Means for selecting a part of the candidate object based on the radar information as a processing target based on the traveling information;
An object detection device further comprising:
請求項1乃至3のいずれか記載の物体検出装置において、
前記導出手段、前記予測手段、前記設定手段、および、前記検出手段のうち少なくとも1の手段は、
前記レーダ情報に基づく前記候補物体が複数あるとき、複数の前記候補物体のうちの前記車両との距離の近い順から処理対象とすることを特徴とする物体検出装置。
In the object detection device according to any one of claims 1 to 3,
At least one of the derivation means, the prediction means, the setting means, and the detection means is:
When there are a plurality of candidate objects based on the radar information, the object detection device is set as a processing target in order of a short distance from the vehicle among the plurality of candidate objects.
車両に設けられた前記車両外の物体の位置と速度を検出するレーダ装置からのレーダ情報と、前記車両に設けられ前記レーダ装置の検出範囲と重なる領域を撮像するカメラで得られた画像とに基づいて、前記車両外の検出対象を検出する物体検出方法であって、
前記レーダ情報に基づく前記検出対象との候補物体の前記画像中の座標を導出する工程と、
前記レーダ情報に基づいて、前記候補物体の種類を予測する工程と、
前記画像中における前記候補物体の導出された座標の周辺の、当該候補物体の予測された種類に応じたサイズの領域を処理対象領域に設定する工程と、
前記画像中の前記処理対象領域のみを対象に前記検出対象を検出する工程と、
を有することを特徴とする物体検出方法。
Radar information from a radar device that detects the position and speed of an object outside the vehicle provided in the vehicle, and an image obtained by a camera that images a region provided in the vehicle and overlapping the detection range of the radar device. Based on the object detection method for detecting a detection target outside the vehicle,
Deriving coordinates in the image of candidate objects with the detection target based on the radar information;
Predicting the type of the candidate object based on the radar information;
Setting a region around the derived coordinates of the candidate object in the image with a size according to the predicted type of the candidate object as a processing target region;
Detecting the detection target for only the processing target region in the image;
An object detection method characterized by comprising:
物体検出システムであって、
車両に設けられ前記車両外の物体の位置と速度を検出するレーダ装置と、
前記車両に設けられ前記レーダ装置の検出範囲と重なる領域を撮像するカメラと、
レーダ装置からのレーダ情報と、カメラで得られた画像とに基づいて、前記車両外の検出対象を検出する請求項1ないし4のいずれかに記載の物体検出装置と、
を備えることを特徴とする物体検出システム。
An object detection system,
A radar device provided in a vehicle for detecting the position and speed of an object outside the vehicle;
A camera that is provided in the vehicle and images a region that overlaps a detection range of the radar device;
The object detection device according to any one of claims 1 to 4, wherein a detection target outside the vehicle is detected based on radar information from a radar device and an image obtained by a camera.
An object detection system comprising:
JP2009171014A 2009-07-22 2009-07-22 Object detecting device, information processing method and information processing system Pending JP2011027457A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009171014A JP2011027457A (en) 2009-07-22 2009-07-22 Object detecting device, information processing method and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009171014A JP2011027457A (en) 2009-07-22 2009-07-22 Object detecting device, information processing method and information processing system

Publications (1)

Publication Number Publication Date
JP2011027457A true JP2011027457A (en) 2011-02-10

Family

ID=43636388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009171014A Pending JP2011027457A (en) 2009-07-22 2009-07-22 Object detecting device, information processing method and information processing system

Country Status (1)

Country Link
JP (1) JP2011027457A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012220377A (en) * 2011-04-11 2012-11-12 Denso Corp Object identification apparatus and object identification program
KR101417408B1 (en) * 2012-11-15 2014-07-14 현대자동차주식회사 Method and system for judging object by radar
JP2014142202A (en) * 2013-01-22 2014-08-07 Denso Corp Vehicle-mounted target detection device
US9041592B2 (en) 2011-10-14 2015-05-26 Samsung Techwin Co., Ltd. Radar sensor and method of detecting object using the same
WO2015098510A1 (en) * 2013-12-27 2015-07-02 日立オートモティブシステムズ株式会社 Vehicle control device, vehicle mounted with vehicle control device, and moving body detection method
KR20160047863A (en) * 2014-10-23 2016-05-03 현대모비스 주식회사 Object detecting apparatus, and method for operating the same
KR101750615B1 (en) * 2015-08-18 2017-06-23 재단법인대구경북과학기술원 Device and method for object recognition and detection
KR20170071728A (en) * 2015-12-16 2017-06-26 현대자동차주식회사 Vehicle and controlling method for the vehicle
JP2019053490A (en) * 2017-09-14 2019-04-04 株式会社デンソー Target recognition device, target recognition method, and vehicle control system
WO2019151059A1 (en) * 2018-02-05 2019-08-08 日本電気株式会社 Image processing device, range finding device, imaging device, image processing method, and storage medium
WO2020066305A1 (en) * 2018-09-25 2020-04-02 日立オートモティブシステムズ株式会社 Electronic control device
CN111226132A (en) * 2019-03-18 2020-06-02 深圳市大疆创新科技有限公司 Target detection method and device, millimeter wave radar and movable platform
WO2021186960A1 (en) * 2020-03-16 2021-09-23 ソニーセミコンダクタソリューションズ株式会社 Recognition process system, recognition process device, and recognition process method
JP2021157847A (en) * 2020-11-16 2021-10-07 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Method, apparatus, device, and readable storage medium for recognizing abnormal license plate
CN113631948A (en) * 2019-03-27 2021-11-09 株式会社电装 Object detection device
CN114067608A (en) * 2020-08-06 2022-02-18 丰田自动车株式会社 Vehicle-mounted detection device and detection method
WO2023026920A1 (en) 2021-08-26 2023-03-02 パナソニックIpマネジメント株式会社 Sensing device, processing device and data processing method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330665A (en) * 2000-05-18 2001-11-30 Fujitsu Ten Ltd On-vehicle object detector using radar and image processing
JP2005271622A (en) * 2004-03-23 2005-10-06 Toyota Motor Corp Vehicle controlling system
JP2007015676A (en) * 2005-05-13 2007-01-25 Honda Motor Co Ltd Apparatus and method for predicting collision
JP2007072665A (en) * 2005-09-06 2007-03-22 Fujitsu Ten Ltd Object discrimination device, object discrimination method and object discrimination program
JP2007219758A (en) * 2006-02-15 2007-08-30 Fujitsu Ten Ltd On-vehicle information unit, and information processing method for on-vehicle unit
JP2007232408A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Apparatus and method for estimating shape of structure and obstacle detection apparatus
JP2007240314A (en) * 2006-03-08 2007-09-20 Omron Corp Object detector
JP2007251257A (en) * 2006-03-13 2007-09-27 Fujitsu Ten Ltd Image recognition device, vehicle control device, image recognition method, and vehicle control method
JP2008152672A (en) * 2006-12-19 2008-07-03 Fujitsu Ten Ltd Image recognition apparatus, image recognition method and electronic control apparatus
JP2009017157A (en) * 2007-07-04 2009-01-22 Omron Corp Image processor, method and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330665A (en) * 2000-05-18 2001-11-30 Fujitsu Ten Ltd On-vehicle object detector using radar and image processing
JP2005271622A (en) * 2004-03-23 2005-10-06 Toyota Motor Corp Vehicle controlling system
JP2007015676A (en) * 2005-05-13 2007-01-25 Honda Motor Co Ltd Apparatus and method for predicting collision
JP2007072665A (en) * 2005-09-06 2007-03-22 Fujitsu Ten Ltd Object discrimination device, object discrimination method and object discrimination program
JP2007219758A (en) * 2006-02-15 2007-08-30 Fujitsu Ten Ltd On-vehicle information unit, and information processing method for on-vehicle unit
JP2007232408A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Apparatus and method for estimating shape of structure and obstacle detection apparatus
JP2007240314A (en) * 2006-03-08 2007-09-20 Omron Corp Object detector
JP2007251257A (en) * 2006-03-13 2007-09-27 Fujitsu Ten Ltd Image recognition device, vehicle control device, image recognition method, and vehicle control method
JP2008152672A (en) * 2006-12-19 2008-07-03 Fujitsu Ten Ltd Image recognition apparatus, image recognition method and electronic control apparatus
JP2009017157A (en) * 2007-07-04 2009-01-22 Omron Corp Image processor, method and program

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012220377A (en) * 2011-04-11 2012-11-12 Denso Corp Object identification apparatus and object identification program
US9041592B2 (en) 2011-10-14 2015-05-26 Samsung Techwin Co., Ltd. Radar sensor and method of detecting object using the same
KR101417408B1 (en) * 2012-11-15 2014-07-14 현대자동차주식회사 Method and system for judging object by radar
US9342897B2 (en) 2013-01-22 2016-05-17 Denso Corporation In-vehicle target detecting device
JP2014142202A (en) * 2013-01-22 2014-08-07 Denso Corp Vehicle-mounted target detection device
WO2015098510A1 (en) * 2013-12-27 2015-07-02 日立オートモティブシステムズ株式会社 Vehicle control device, vehicle mounted with vehicle control device, and moving body detection method
JP2015125669A (en) * 2013-12-27 2015-07-06 日立オートモティブシステムズ株式会社 Vehicle controller, vehicle mounting therein vehicle control device, and movable body detection method
KR20160047863A (en) * 2014-10-23 2016-05-03 현대모비스 주식회사 Object detecting apparatus, and method for operating the same
CN105549023A (en) * 2014-10-23 2016-05-04 现代摩比斯株式会社 Object detecting apparatus, and method of operating the same
KR101644370B1 (en) * 2014-10-23 2016-08-01 현대모비스 주식회사 Object detecting apparatus, and method for operating the same
KR101750615B1 (en) * 2015-08-18 2017-06-23 재단법인대구경북과학기술원 Device and method for object recognition and detection
KR20170071728A (en) * 2015-12-16 2017-06-26 현대자동차주식회사 Vehicle and controlling method for the vehicle
KR102338989B1 (en) * 2015-12-16 2021-12-14 현대자동차주식회사 Vehicle and controlling method for the vehicle
JP2019053490A (en) * 2017-09-14 2019-04-04 株式会社デンソー Target recognition device, target recognition method, and vehicle control system
JP7045155B2 (en) 2017-09-14 2022-03-31 株式会社デンソー Target recognition device, target recognition method and vehicle control system
WO2019151059A1 (en) * 2018-02-05 2019-08-08 日本電気株式会社 Image processing device, range finding device, imaging device, image processing method, and storage medium
JP2019135446A (en) * 2018-02-05 2019-08-15 日本電気株式会社 Image processing device, distance measurement device, imaging device, image processing method and program
JP7008308B2 (en) 2018-02-05 2022-01-25 日本電気株式会社 Image processing device, ranging device, image pickup device, image processing method and program
WO2020066305A1 (en) * 2018-09-25 2020-04-02 日立オートモティブシステムズ株式会社 Electronic control device
CN111226132A (en) * 2019-03-18 2020-06-02 深圳市大疆创新科技有限公司 Target detection method and device, millimeter wave radar and movable platform
CN113631948A (en) * 2019-03-27 2021-11-09 株式会社电装 Object detection device
WO2021186960A1 (en) * 2020-03-16 2021-09-23 ソニーセミコンダクタソリューションズ株式会社 Recognition process system, recognition process device, and recognition process method
US20230113547A1 (en) * 2020-03-16 2023-04-13 Sony Semiconductor Solutions Corporation Recognition processing system, recognition processing device, and recognition processing method
CN114067608A (en) * 2020-08-06 2022-02-18 丰田自动车株式会社 Vehicle-mounted detection device and detection method
CN114067608B (en) * 2020-08-06 2023-10-10 丰田自动车株式会社 Vehicle-mounted detection device and detection method
JP2021157847A (en) * 2020-11-16 2021-10-07 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Method, apparatus, device, and readable storage medium for recognizing abnormal license plate
WO2023026920A1 (en) 2021-08-26 2023-03-02 パナソニックIpマネジメント株式会社 Sensing device, processing device and data processing method

Similar Documents

Publication Publication Date Title
JP2011027457A (en) Object detecting device, information processing method and information processing system
US9704404B2 (en) Lane detection apparatus and operating method for the same
JP4396400B2 (en) Obstacle recognition device
CN105128836B (en) Autonomous emergency braking system and the wherein method of identifying rows people
JP4598653B2 (en) Collision prediction device
US9150223B2 (en) Collision mitigation apparatus
JP4823781B2 (en) Vehicle travel safety device
JP5910046B2 (en) Obstacle detection device
EP2302412B1 (en) System and method for evaluation of an automotive vehicle forward collision threat
JP6787157B2 (en) Vehicle control device
JP2007172035A (en) Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method
JP2011118483A (en) On-vehicle device and recognition support system
JP5482670B2 (en) Object detection device
JP2009174900A (en) Object detecting device, object detection method, and object detecting system
JP2008037361A (en) Obstacle recognition device
JP2005202878A (en) Object detector
JP2010049383A (en) Warning device for vehicle
CN107004250B (en) Image generation device and image generation method
JP7275623B2 (en) Driving support device
JP2016192167A (en) Vehicle control device and vehicle control method
JP6432538B2 (en) Collision prediction device
JP2009187351A (en) Obstacle detecting device and obstacle detecting method
JP2012164275A (en) Image recognition apparatus
JP5617362B2 (en) Obstacle recognition device
JP4872517B2 (en) Obstacle recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131119