JP2019197270A - Object detection device and object detection method - Google Patents

Object detection device and object detection method Download PDF

Info

Publication number
JP2019197270A
JP2019197270A JP2018089392A JP2018089392A JP2019197270A JP 2019197270 A JP2019197270 A JP 2019197270A JP 2018089392 A JP2018089392 A JP 2018089392A JP 2018089392 A JP2018089392 A JP 2018089392A JP 2019197270 A JP2019197270 A JP 2019197270A
Authority
JP
Japan
Prior art keywords
blind spot
range
unit
moving object
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018089392A
Other languages
Japanese (ja)
Other versions
JP7244215B2 (en
Inventor
宏典 永井
Hironori Nagai
宏典 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018089392A priority Critical patent/JP7244215B2/en
Publication of JP2019197270A publication Critical patent/JP2019197270A/en
Application granted granted Critical
Publication of JP7244215B2 publication Critical patent/JP7244215B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an object detection device and an object detection method capable of detecting objects including an object moving in a range to be a dead angle of a camera.SOLUTION: An object detection device includes a camera device and a radar device. The camera device includes an imaging unit and a detection unit. The imaging unit images a predetermined range in the periphery of a vehicle. The detection unit detects a moving object existing in the predetermined range on the basis of an image imaged by the imaging unit. The radar device includes a determination unit. When the radar device detects a moving object in a period when the camera device does not detect a moving object, the determination unit determines that there is a possibility of existence of a moving object in a dead angle range to be a dead angle of the camera device within the predetermined range.SELECTED DRAWING: Figure 1

Description

開示の実施形態は、物体検知装置および物体検知方法に関する。   Embodiments disclosed herein relate to an object detection apparatus and an object detection method.

従来、車載カメラによって撮像される車両周辺の撮像画像情報と、ミリ波レーダによる物体の検知情報とに基づいて物体を検知することにより、物体の検知精度を向上させたフュージョンセンサと呼ばれる物体検知装置がある(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, an object detection device called a fusion sensor that improves object detection accuracy by detecting an object based on captured image information around a vehicle imaged by an in-vehicle camera and object detection information by a millimeter wave radar (For example, refer to Patent Document 1).

特開2017−47706号公報JP 2017-47706 A

しかしながら、従来の物体検知装置は、カメラの死角となる範囲を移動する物体については、検知対象外であった。実施形態の一態様は、上記に鑑みてなされたものであって、カメラの死角となる範囲を移動する物体を含めて物体を検知することができる物体検知装置および物体検知方法を提供することを目的とする。   However, in the conventional object detection device, an object that moves within a blind spot of the camera is not a detection target. One aspect of the embodiments has been made in view of the above, and provides an object detection device and an object detection method capable of detecting an object including an object that moves in a blind spot of a camera. Objective.

実施形態の一態様に係る物体検知装置は、カメラ装置とレーダ装置とを備える。前記カメラ装置は、撮像部と、検出部とを備える。撮像部は、車両の周囲における所定範囲を撮像する。検出部は、前記撮像部によって撮像される画像に基づいて前記所定範囲に存在する移動物を検出する。前記レーダ装置は、判定部を備える。判定部は、前記カメラ装置によって前記移動物が検出されない期間に、前記レーダ装置が移動物を検知した場合、前記所定範囲のうち前記カメラ装置の死角となる死角範囲に移動物が存在する可能性があると判定する。   An object detection device according to an aspect of an embodiment includes a camera device and a radar device. The camera device includes an imaging unit and a detection unit. The imaging unit images a predetermined range around the vehicle. The detection unit detects a moving object existing in the predetermined range based on an image captured by the imaging unit. The radar apparatus includes a determination unit. When the radar apparatus detects a moving object during a period in which the moving apparatus is not detected by the camera device, there is a possibility that the moving object exists in a blind spot range that is a blind spot of the camera device in the predetermined range. Judge that there is.

実施形態の一態様に係る物体検知装置および物体検知方法は、カメラの死角となる範囲を移動する物体を含めて物体を検知することができる。   The object detection device and the object detection method according to an aspect of the embodiment can detect objects including an object that moves in a range that is a blind spot of the camera.

図1は、実施形態に係る物体検知方法の説明図である。FIG. 1 is an explanatory diagram of an object detection method according to the embodiment. 図2は、実施形態に係る物体検知装置の構成の一例を示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of the configuration of the object detection device according to the embodiment. 図3Aは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 3A is an explanatory diagram illustrating a specific example of the operation of the alerting unit according to the embodiment. 図3Bは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 3B is an explanatory diagram illustrating a specific example of the operation of the alerting unit according to the embodiment. 図4Aは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 4A is an explanatory diagram illustrating a specific example of the operation of the alerting unit according to the embodiment. 図4Bは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 4B is an explanatory diagram illustrating a specific example of the operation of the alerting unit according to the embodiment. 図5Aは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 5A is an explanatory diagram illustrating a specific example of the operation of the alerting unit according to the embodiment. 図5Bは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 5B is an explanatory diagram illustrating a specific example of the operation of the alerting unit according to the embodiment. 図6Aは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 6A is an explanatory diagram illustrating a specific example of the operation of the alerting unit according to the embodiment. 図6Bは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 6B is an explanatory diagram illustrating a specific example of the operation of the alerting unit according to the embodiment. 図7は、実施形態に係る画像処理ECUが実行する処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of processing executed by the image processing ECU according to the embodiment. 図8は、実施形態に係るレーダECUが実行する処理の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of processing executed by the radar ECU according to the embodiment. 図9は、実施形態に係る注意喚起部が実行する処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of processing executed by the alerting unit according to the embodiment. 図10Aは、実施形態の変形例1に係る静止物onlyフラグの切替態様の説明図である。FIG. 10A is an explanatory diagram of a switching mode of a stationary object only flag according to the first modification of the embodiment. 図10Bは、実施形態の変形例2に係る静止物onlyフラグの切替態様の説明図である。Drawing 10B is an explanatory view of the change mode of the stationary object only flag concerning modification 2 of an embodiment.

以下、添付図面を参照して、物体検知装置および物体検知方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。図1は、実施形態に係る物体検知方法の概要について説明する。   Hereinafter, embodiments of an object detection device and an object detection method will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below. FIG. 1 illustrates an outline of an object detection method according to an embodiment.

図1は、実施形態に係る物体検知方法の説明図である。図1に示すように、実施形態に係る物体検知装置1は、車両10に搭載され、例えば、車両10の前方に存在する物体を検知する装置である。   FIG. 1 is an explanatory diagram of an object detection method according to the embodiment. As shown in FIG. 1, the object detection device 1 according to the embodiment is a device that is mounted on a vehicle 10 and detects an object that exists in front of the vehicle 10, for example.

なお、物体検知装置1は、車両10の後方や側方に設けられることで、車両10の後方や側方に存在する物体を検知することもできる。また、物体検知装置1が搭載される移動体は、車両10に限定されるものではなく、船舶、航空機、および列車等といった任意の移動体であってもよい。   In addition, the object detection apparatus 1 can also detect an object existing behind or on the side of the vehicle 10 by being provided behind or on the side of the vehicle 10. Moreover, the mobile body in which the object detection apparatus 1 is mounted is not limited to the vehicle 10, and may be any mobile body such as a ship, an aircraft, a train, and the like.

物体検知装置1は、カメラ装置(以下、「カメラ2」と記載する)と、レーダ装置(以下「レーダ3」と記載する)とを備え、カメラ2による物体の検知結果と、レーダ3による物体の検知結果とに基づいて物体を検知するフュージョンセンサである。   The object detection device 1 includes a camera device (hereinafter referred to as “camera 2”) and a radar device (hereinafter referred to as “radar 3”), the detection result of the object by the camera 2, and the object by the radar 3. This is a fusion sensor that detects an object based on the detection result.

カメラ2は、車両前方における所定範囲(以下、「検知範囲2A」と記載する)の画像を所定周期で順次撮像し、今回撮像した画像(現フレーム画像)と、前回撮像した画像(前フレーム画像)とのフレーム間差分をとることによって移動物を検知する。   The camera 2 sequentially captures images of a predetermined range in front of the vehicle (hereinafter referred to as “detection range 2A”) in a predetermined cycle, and the image captured this time (current frame image) and the previous image (previous frame image). ) To detect a moving object.

レーダ3は、例えば、カメラ2の検知範囲2Aと略同一の検知範囲3Aへ向け、ミリ波帯の電波を放射して物体によって反射される電波を受信し、受信する電波波に基づいて物体を検知する。   For example, the radar 3 receives a radio wave reflected by an object by emitting a radio wave in the millimeter wave band toward a detection range 3A that is substantially the same as the detection range 2A of the camera 2, and the object is detected based on the received radio wave. Detect.

そして、物体検知装置1は、カメラ2およびレーダ3という2つのセンサによる検知結果から物体の存在を総合的に判断して物体を検知する。これにより、物体検知装置1は、1つのセンサによる検知結果に基づいて物体を検知する他の物体検知装置よりも確実に物体を検知することができる。   The object detection device 1 detects the object by comprehensively determining the presence of the object from the detection results of the two sensors, the camera 2 and the radar 3. Thereby, the object detection apparatus 1 can detect an object more reliably than the other object detection apparatus which detects an object based on the detection result by one sensor.

ただし、かかる物体検知装置1では、車両10の周辺環境によっては、カメラ2の死角となる範囲が発生する場合がある。例えば、図1に示すように、車両10の両脇に建物100,101があるT字路R1の手前に停止している場合、T字路R1を右左折する先がカメラ2の死角となる。   However, in the object detection device 1, a range that becomes a blind spot of the camera 2 may occur depending on the surrounding environment of the vehicle 10. For example, as shown in FIG. 1, when the buildings 100 and 101 on both sides of the vehicle 10 are stopped in front of the T-junction R <b> 1, the point where the T-junction R <b> 1 turns right and left is the blind spot of the camera 2. .

かかる場合に、カメラ2は、建物101がなければ検知範囲2A内であるが、建物101があるために死角となるT字路R1を右折する先に、T字路R1へ向かって移動する歩行者T1が居ても、歩行者T1を検知することができない。   In this case, the camera 2 is within the detection range 2A if there is no building 101, but walks toward the T-junction R1 before turning right at the T-junction R1 that becomes a blind spot because of the building 101. Even if there is a person T1, the pedestrian T1 cannot be detected.

これに対してレーダ3は、放射した電波Bが車両10の前方の壁102に反射して歩行者T1に当たり、歩行者T1によって反射され、再度壁102によって反射される電波を受信することがある。これにより、レーダ3は、歩行者T1の位置までは特定することはできないが、カメラ2の死角となる範囲に移動物が存在する可能性があることは検知することができる。   On the other hand, the radar 3 reflects the radiated radio wave B to the front wall 102 of the vehicle 10 and hits the pedestrian T1, and is reflected by the pedestrian T1 and receives the radio wave reflected by the wall 102 again. . As a result, the radar 3 cannot identify the position of the pedestrian T1, but can detect that there is a possibility that a moving object exists in the range that becomes the blind spot of the camera 2.

そこで、物体検知装置1は、車両10が停止中であり、カメラ2によって移動物である歩行者が検知されない期間に、レーダ3に対する相対速度がゼロでない物体を検知した場合、カメラ2の死角となる範囲に移動物が存在する可能性があると判定する。これにより、物体検知装置1は、カメラ2の死角となる範囲を移動する物体を含めて物体を検知することができる。   Therefore, when the vehicle 10 is stopped and the pedestrian that is a moving object is not detected by the camera 2, the object detection device 1 detects an object whose relative speed with respect to the radar 3 is not zero, It is determined that there is a possibility that a moving object exists in a certain range. Thereby, the object detection apparatus 1 can detect an object including an object that moves in a range that is a blind spot of the camera 2.

次に、図2を参照し、実施形態に係る物体検知装置1の構成の一例について説明する。図2は、実施形態に係る物体検知装置1の構成の一例を示す説明図である。図2に示すように、物体検知装置1は、例えば、カーナビゲーション装置5および車両制御装置6と接続される。   Next, an example of the configuration of the object detection device 1 according to the embodiment will be described with reference to FIG. FIG. 2 is an explanatory diagram illustrating an example of the configuration of the object detection device 1 according to the embodiment. As shown in FIG. 2, the object detection device 1 is connected to, for example, a car navigation device 5 and a vehicle control device 6.

カーナビゲーション装置5は、ナビゲーション部51と、記憶部52と、表示部53とを備える。記憶部52は、地図情報54を記憶している。ナビゲーション部51は、車両10のユーザによって目的地が設定される場合に、現在地から目的地までの車両10の走行経路を地図情報に重畳させて表示部53に表示させることにより、ユーザに経路案内を行う。   The car navigation device 5 includes a navigation unit 51, a storage unit 52, and a display unit 53. The storage unit 52 stores map information 54. When the destination of the vehicle 10 is set by the user of the vehicle 10, the navigation unit 51 superimposes the travel route of the vehicle 10 from the current location to the destination on the map information and causes the display unit 53 to display the route guidance to the user. I do.

車両制御装置6は、車両全体を統括制御する制御装置である。車両制御装置6は、例えば、物体検知装置1から前方に車両10の走行を妨げる物体が存在することを示す情報が入力される場合に、自動的にブレーキを作動させたり、物体を回避するように自動的に操舵したりする等の制御を行う。   The vehicle control device 6 is a control device that performs overall control of the entire vehicle. For example, when information indicating that there is an object that obstructs the traveling of the vehicle 10 from the object detection device 1 is input, the vehicle control device 6 automatically activates a brake or avoids the object. To automatically steer and so on.

物体検知装置1は、カメラ2と、レーダ3と、注意喚起部4とを備える。カメラ2は、撮像部21と、画像処理ECU(Electronic Control Unit)22とを備える。撮像部21は、例えば、CMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を備え、車両10の前方における検知範囲2Aの画像を所定周期で撮像し、撮像した画像を順次画像処理ECU22へ出力する。   The object detection device 1 includes a camera 2, a radar 3, and an alerting unit 4. The camera 2 includes an imaging unit 21 and an image processing ECU (Electronic Control Unit) 22. The imaging unit 21 includes, for example, a solid-state imaging device such as a CMOS (Complementary Metal Oxide Semiconductor), captures an image of the detection range 2A in front of the vehicle 10 at a predetermined period, and sequentially outputs the captured images to the image processing ECU 22. .

画像処理ECU22は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有するマイクロコンピュータや各種の回路を含む。   The image processing ECU 22 includes a microcomputer having a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), and various circuits.

画像処理ECU22は、CPUがROMに記憶されたプログラムを、RAMを作業範囲として使用して実行することにより機能する検出部23を備える。なお、検出部23は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。   The image processing ECU 22 includes a detection unit 23 that functions when the CPU executes a program stored in the ROM using the RAM as a work range. The detection unit 23 may be configured by hardware such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

検出部23は、撮像部21から順次入力される画像のフレーム間差分に基づいて、検知範囲2A内に存在する移動物を検出する。例えば、車両10が停止している期間に、カメラ2の検知範囲2A内に静止物しか存在せず、移動物が存在しない場合、カメラ2によって2回撮像を行うと、今回撮像された画像と前回撮像された画像とは同じ画像になる。   The detection unit 23 detects a moving object existing in the detection range 2 </ b> A based on the inter-frame difference between images sequentially input from the imaging unit 21. For example, when there is only a stationary object in the detection range 2A of the camera 2 and no moving object during the period when the vehicle 10 is stopped, if the camera 2 captures the image twice, The image is the same as the previously captured image.

このため、検出部23は、今回撮像された画像の各画素の輝度値と、前回撮像された画像の各画素の輝度値との差分(フレーム間差分)を取ると、フレーム間差分が理論上0となるので、検知範囲2A内には静止物しか存在しないと判定する。   For this reason, if the detection unit 23 takes a difference (interframe difference) between the luminance value of each pixel of the image captured this time and the luminance value of each pixel of the image captured last time, the interframe difference is theoretically calculated. Therefore, it is determined that only a stationary object exists in the detection range 2A.

ただし、実際には、風等の外乱が影響しフレーム間差分が完全に0になることはない。このため、検出部23は、フレーム間差分が所定の閾値以下の場合に、検知範囲2A内には静止物しか存在しないと判定し、フレーム間差分が所定の閾値を超える場合に、検知範囲2A内に移動物が存在すると判定する。   However, in practice, the difference between frames does not become zero completely due to disturbances such as wind. For this reason, the detection unit 23 determines that only a stationary object exists in the detection range 2A when the interframe difference is equal to or less than the predetermined threshold, and detects the detection range 2A when the interframe difference exceeds the predetermined threshold. It is determined that there is a moving object inside.

かかる検出部23は、撮像部21から画像が入力される場合、まず、検知範囲2A内に静止物しか存在しないことを示す静止物onlyフラグをOFFにする。そして、検出部23は、今回入力された画像と、前回入力された画像とのフレーム間差分が所定の閾値以下の場合に、静止物onlyフラグをOFFする。   When an image is input from the imaging unit 21, the detection unit 23 first turns off a stationary object only flag indicating that only a stationary object exists in the detection range 2A. And the detection part 23 turns OFF a stationary object only flag, when the difference between frames of the image input this time and the image input last time is below a predetermined threshold value.

そして、画像処理ECU22は、画像毎にONまたはOFFの静止物onlyフラグをレーダ3へ送信する。これにより、レーダ3は、検出部23から入力される静止物onlyフラグの状態を参照することで、カメラ2によって移動物が検知されている期間か、移動物が検知されていない期間かを判定することができる。   Then, the image processing ECU 22 transmits an ON or OFF stationary object only flag to the radar 3 for each image. Accordingly, the radar 3 refers to the state of the stationary object only flag input from the detection unit 23 to determine whether the moving object is detected by the camera 2 or the period in which the moving object is not detected. can do.

また、検出部23は、撮像部21から入力される画像を注意喚起部4およびカーナビゲーション装置5へ出力し、カーナビゲーション装置5による経路案内が行われていない期間に、表示部53に表示させる。なお、検出部23は、車両10に別途表示装置が搭載されている場合には、撮像部21から入力される画像を表示装置へ出力して常時表示させることもできる。   In addition, the detection unit 23 outputs the image input from the imaging unit 21 to the alerting unit 4 and the car navigation device 5, and causes the display unit 53 to display the route guidance by the car navigation device 5. . In addition, the detection part 23 can also output the image input from the imaging part 21 to a display apparatus, and can always display it, when the display apparatus is separately mounted in the vehicle 10. FIG.

レーダ3は、アンテナ部31と、レーダECU32とを備える。アンテナ部31は、周波数が連続的に増加または減少するミリ波帯の電波をレーダ3の検知範囲3Aへ向けて放射(送信)し、放射した電波が物体によって反射される電波を受信する。そして、アンテナ部31は、送信した電波と受信した電波をミキシングしてビート信号を生成し、生成したビート信号をレーダECU32へ出力する。   The radar 3 includes an antenna unit 31 and a radar ECU 32. The antenna unit 31 radiates (transmits) millimeter-wave radio waves whose frequency continuously increases or decreases toward the detection range 3A of the radar 3, and receives the radio waves reflected by the object. Then, the antenna unit 31 mixes the transmitted radio wave and the received radio wave to generate a beat signal, and outputs the generated beat signal to the radar ECU 32.

レーダECU32は、CPU、ROM、RAMなどを有するマイクロコンピュータや各種の回路を含む。レーダECU32は、CPUがROMに記憶されたプログラムを、RAMを作業範囲として使用して実行することにより機能する信号処理部33および認識処理部34を備える。なお、信号処理部33および認識処理部34は、ASICやFPGA等のハードウェアで構成されてもよい。   The radar ECU 32 includes a microcomputer having a CPU, ROM, RAM, and various circuits. The radar ECU 32 includes a signal processing unit 33 and a recognition processing unit 34 that function when the CPU executes a program stored in the ROM using the RAM as a work range. The signal processing unit 33 and the recognition processing unit 34 may be configured by hardware such as an ASIC or FPGA.

信号処理部33は、アンテナ部31から入力されるビート信号を2次元FFT(Fast Fourier transform)し、FFTの結果からピークを抽出する。続いて、信号処理部33は、抽出したピークおよびピークの位相変化に基づいて、検知対象となるレーダ3に対する物体の角度(方位)、物体までの距離、および物体との相対速度を算出する。   The signal processing unit 33 performs a two-dimensional FFT (Fast Fourier transform) on the beat signal input from the antenna unit 31 and extracts a peak from the FFT result. Subsequently, the signal processing unit 33 calculates the angle (azimuth) of the object with respect to the radar 3 to be detected, the distance to the object, and the relative speed with the object based on the extracted peak and the phase change of the peak.

そして、信号処理部33は、算出した物体の角度、物体までの距離、および物体との相対速度を認識処理部34へ出力する。認識処理部34は、信号処理部33から入力される物体の角度、物体までの距離、および物体との相対速度に基づいて、レーダ3の検知範囲A3に存在する移動物および静止物を検知する。   Then, the signal processing unit 33 outputs the calculated angle of the object, the distance to the object, and the relative speed with the object to the recognition processing unit 34. The recognition processing unit 34 detects a moving object and a stationary object existing in the detection range A3 of the radar 3 based on the angle of the object input from the signal processing unit 33, the distance to the object, and the relative speed with the object. .

そして、認識処理部34は、前方に車両10の走行を妨げる物体を検知した場合に、その旨を示す情報を車両制御装置6へ出力する。車両制御装置6は、認識処理部34から前方に車両10の走行を妨げる物体が存在することを示す情報が入力される場合に、自動的にブレーキを作動させたり、物体を回避するように自動的に操舵したりする等の制御を行う。   And the recognition process part 34 outputs the information which shows that to the vehicle control apparatus 6, when the object which prevents driving | running | working of the vehicle 10 ahead is detected. The vehicle control device 6 automatically activates a brake or avoids an object when information indicating that there is an object that obstructs the traveling of the vehicle 10 ahead is input from the recognition processing unit 34. Control such as steering.

かかる認識処理部34は、カメラ2の死角となる死角範囲に移動物が存在する可能性があるか否かを判定する判定部35を備える。判定部35は、車両10が停止中であり、且つカメラ2によって移動物が検出されない期間に、レーダ3に対する相対速度がゼロでない物体を検知した場合に、カメラ2の検知範囲2Aのうち、死角となる死角範囲に移動物が存在する可能性があると判定する。   The recognition processing unit 34 includes a determination unit 35 that determines whether or not there is a possibility that a moving object exists in the blind spot range that is the blind spot of the camera 2. When the determination unit 35 detects an object whose relative speed with respect to the radar 3 is not zero during a period in which the vehicle 10 is stopped and no moving object is detected by the camera 2, a blind spot in the detection range 2 </ b> A of the camera 2 is detected. It is determined that there is a possibility that a moving object exists in the blind spot range.

かかる判定部35は、カメラ2の検出部23から静止物onlyフラグを受信する。カメラ2の検出部23は、前述したように、カメラ2の検知範囲2A内に静止物しか存在しない場合に、OFFからONにする。   The determination unit 35 receives a stationary object only flag from the detection unit 23 of the camera 2. As described above, the detection unit 23 of the camera 2 turns from OFF to ON when only a stationary object exists in the detection range 2A of the camera 2.

このため、判定部35は、カメラ2の検出部23から受信する静止物onlyフラグがONの期間がカメラ2によって移動物が検出されない期間であると判定することができる。これにより、判定部35は、車両10が停止し、検出部23から受信する静止物onlyフラグがONの期間に、信号処理部33からゼロでない相対速度が入力される場合に、カメラ2の死角となる死角範囲に移動物が存在する可能性があると判定することができる。   For this reason, the determination unit 35 can determine that the period in which the stationary object only flag received from the detection unit 23 of the camera 2 is ON is a period in which no moving object is detected by the camera 2. As a result, the determination unit 35 detects the blind spot of the camera 2 when a non-zero relative speed is input from the signal processing unit 33 while the vehicle 10 is stopped and the stationary object only flag received from the detection unit 23 is ON. It can be determined that there is a possibility that a moving object exists in the blind spot range.

そして、判定部35は、カメラ2の死角となる死角範囲に移動物が存在する可能性があると判定した場合、その旨を示す情報を注意喚起部4へ出力する。注意喚起部4は、判定部35からカメラ2の死角となる死角範囲に移動物が存在する可能性があることを示す情報が入力される場合に、注意喚起情報を表示させる。   If the determination unit 35 determines that there is a possibility that there is a moving object in the blind spot range that is the blind spot of the camera 2, the determination unit 35 outputs information indicating that fact to the alerting unit 4. The alerting unit 4 displays alerting information when information indicating that there is a possibility that a moving object is present in the blind spot range that is the blind spot of the camera 2 is input from the determination unit 35.

例えば、注意喚起部4は、カーナビゲーション装置5の表示部53へ注意喚起情報を出力し、表示部53に表示されるカメラ2によって撮像された画像に注意喚起情報を重畳表示させる。これにより、物体検知装置1は、車両10の運転者に対して、目視では確認できない位置に存在する移動物に気を付けるよう注意を促すことができる。   For example, the alerting unit 4 outputs alerting information to the display unit 53 of the car navigation device 5 and causes the alerting information to be superimposed on an image captured by the camera 2 displayed on the display unit 53. Thereby, the object detection apparatus 1 can urge the driver of the vehicle 10 to pay attention to a moving object that exists at a position that cannot be visually confirmed.

また、このとき、注意喚起部4は、例えば、カーナビゲーション装置5に記憶されている地図情報から判定する道路形状に基づいてカメラ2の死角範囲を推定し、カメラ2によって撮像された画像における死角範囲に対応する位置に、注意喚起情報を表示させる。   At this time, for example, the alerting unit 4 estimates the blind spot range of the camera 2 based on the road shape determined from the map information stored in the car navigation device 5, and the blind spot in the image captured by the camera 2. The alert information is displayed at the position corresponding to the range.

これにより、物体検知装置1は、表示部53に表示される画像におけるカメラ2の死角範囲の位置を運転者に直感的に認識させることができる。したがって、物体検知装置1は、死角範囲から出現する移動物をいち早く運転者に発見させることができる。   Thereby, the object detection apparatus 1 can make a driver | operator recognize intuitively the position of the blind spot range of the camera 2 in the image displayed on the display part 53. FIG. Therefore, the object detection device 1 can cause the driver to quickly find a moving object that appears from the blind spot range.

また、注意喚起部4は、例えば、表示部53に表示される画像中の他の車両に起因する死角範囲を推定し、カメラ2によって撮像された画像における死角範囲に対応する位置に、注意喚起情報を表示させる。   In addition, the alerting unit 4 estimates, for example, a blind spot range caused by another vehicle in the image displayed on the display unit 53, and alerts a position corresponding to the blind spot range in the image captured by the camera 2. Display information.

これにより、物体検知装置1は、例えば、運転者が他の車両に気を取られ、注意を怠りがちになる他の車両によって死角となる死角範囲の位置を運転者に再確認させることができる。したがって、物体検知装置1は、死角範囲から出現する移動物をいち早く運転者に発見させることがきる。   Thereby, the object detection apparatus 1 can make a driver | operator reconfirm the position of the blind spot range which becomes a blind spot by the other vehicle which a driver is distracted by other vehicles and tends to neglect attention, for example. . Therefore, the object detection device 1 can prompt the driver to find a moving object that appears from the blind spot range.

次に、図3A〜図6Bを参照し、上記した注意喚起部4の動作の具体例について説明する。図3A〜図6Bは、実施形態に係る注意喚起部4の動作の具体例を示す説明図である。   Next, with reference to FIG. 3A-FIG. 6B, the specific example of operation | movement of the above-mentioned alerting part 4 is demonstrated. 3A to 6B are explanatory diagrams illustrating specific examples of the operation of the alerting unit 4 according to the embodiment.

図3Aに示すように、注意喚起部4は、例えば、車両10が十字路の交差点R2の手前から走行を開始する場合、地図情報54に基づいて、車両10が停止中の道路と交差する道路におけるハッチングを付した範囲が死角範囲になると推定する。   As shown in FIG. 3A, for example, when the vehicle 10 starts traveling from before the intersection R2 of the crossroads, the alerting unit 4 is based on the map information 54 on the road where the vehicle 10 intersects the stopped road. The hatched area is estimated to be the blind spot area.

このとき、判定部35によって死角範囲に移動物が存在する可能性があると判定される場合、死角範囲には、例えば、交差点R2へ進入しようとする自転車T2や交差点R2へ向かう歩行者T3が存在する可能性がある。   At this time, when it is determined by the determination unit 35 that there is a possibility that there is a moving object in the blind spot range, for example, a bicycle T2 trying to enter the intersection R2 or a pedestrian T3 heading to the intersection R2 is in the blind spot range. May exist.

そこで、図3Bに示すように、注意喚起部4は、表示中の画像P1における左右の両端に注意喚起情報Cを重畳表示させる。これにより、物体検知装置1は、仮に自転車T2や歩行者T3が死角範囲から交差点R2に進入してきたとしても、自転車T2や歩行者T3を運転者にいち早く発見させることができる。   Therefore, as shown in FIG. 3B, the alerting unit 4 superimposes alerting information C on the left and right ends of the displayed image P1. Thereby, even if the bicycle T2 or the pedestrian T3 enters the intersection R2 from the blind spot range, the object detection device 1 can cause the driver to quickly find the bicycle T2 or the pedestrian T3.

また、図4Aに示すように、注意喚起部4は、例えば、車両10がT字路R3の脇道の手前から走行を開始する場合、地図情報54に基づいて、脇道におけるハッチングを付した範囲が死角範囲になると推定する。   As shown in FIG. 4A, the alerting unit 4 has a hatched range on the side road based on the map information 54, for example, when the vehicle 10 starts traveling from the side road of the T-shaped road R3. Estimated to be in the blind spot range.

このとき、判定部35によって死角範囲に移動物が存在する可能性があると判定される場合、死角範囲には、例えば、車両10が走行する道路を横切ろうとする小動物T4が存在する可能性がある。   At this time, when it is determined by the determination unit 35 that there is a possibility that a moving object exists in the blind spot range, for example, there is a possibility that the small animal T4 trying to cross the road on which the vehicle 10 travels exists in the blind spot range. There is.

そこで、図4Bに示すように、注意喚起部4は、例えば、表示中の画像P2における左端に注意喚起情報Cを重畳表示させる。これにより、物体検知装置1は、仮に小動物T4が脇道から飛び出してきたとしても、小動物T4を運転者にいち早く発見させることができる。   Therefore, as shown in FIG. 4B, the alerting unit 4 superimposes alerting information C on the left end of the image P2 being displayed, for example. Thereby, even if the small animal T4 jumps out of the side road, the object detection apparatus 1 can make the driver find the small animal T4 promptly.

また、図5Aに示すように、注意喚起部4は、例えば、車両10が山間部を通る見通しの悪い右カーブR4の手前から走行を開始する場合、地図情報54に基づいて、右カーブR4の出口付近にハッチングを付した範囲が死角範囲になると推定する。   5A, for example, when the vehicle 10 starts to travel from the front of the right curve R4 where the vehicle 10 is poorly visible and passes through the mountainous area, the alerting unit 4 determines the right curve R4 based on the map information 54. Estimated that the hatched area near the exit is the blind spot area.

このとき、判定部35によって死角範囲に移動物が存在する可能性があると判定される場合、死角範囲には、例えば、右カーブR4の出口付近を移動する野生動物T5が存在する可能性がある。   At this time, if the determination unit 35 determines that there is a possibility that a moving object exists in the blind spot range, for example, there may be a wild animal T5 moving near the exit of the right curve R4 in the blind spot range. is there.

そこで、図5Bに示すように、注意喚起部4は、例えば、表示中の画像P3における右端の法面付近に注意喚起情報Cを重畳表示させる。これにより、物体検知装置1は、仮に車両10が右カーブR4の出口に差し掛かって道路上に野生動物T5が現れたとしても、野生動物T5を運転者にいち早く発見させることができる。   Therefore, as illustrated in FIG. 5B, the alerting unit 4 superimposes alerting information C near the rightmost slope in the displayed image P3, for example. Thereby, even if the wild animal T5 appears on the road if the vehicle 10 approaches the exit of the right curve R4, the object detection apparatus 1 can make the driver find the wild animal T5 promptly.

また、図6Aに示すように、注意喚起部4は、例えば、対向車線に他の車両T6が停止している交差点R5から車両10が右折を開始する場合、カメラ2によって撮像された画像からパターン認識によって他の車両T6を検出する。   Further, as shown in FIG. 6A, the alerting unit 4 may, for example, form a pattern from an image captured by the camera 2 when the vehicle 10 starts a right turn from an intersection R5 where another vehicle T6 is stopped in the oncoming lane. The other vehicle T6 is detected by recognition.

かかる場合、注意喚起部4は、他の車両T6の後方にハッチングを付した範囲が死角範囲になると推定する。このとき、判定部35によって死角範囲に移動物が存在する可能性があると判定される場合、死角範囲には、例えば、ミニバイクT7が信号待ちをしている可能性がある。   In such a case, the alerting unit 4 estimates that the hatched range behind the other vehicle T6 is the blind spot range. At this time, when it is determined by the determination unit 35 that there is a possibility that there is a moving object in the blind spot range, for example, the mini bike T7 may be waiting for a signal in the blind spot range.

そこで、図6Bに示すように、注意喚起部4は、表示中の画像P4における他の車両T6の後方位置に注意喚起情報Cを重畳表示させる。これにより、物体検知装置1は、仮に他の車両T6とすれ違った後、他の車両T6の後方からミニバイクT7が出現しても、ミニバイクT7を運転者にいち早く発見させることができる。   Therefore, as shown in FIG. 6B, the alerting unit 4 superimposes alerting information C on the rear position of the other vehicle T6 in the displayed image P4. As a result, the object detection device 1 can promptly find the minibike T7 even if the minibike T7 appears from the rear of the other vehicle T6 after passing the other vehicle T6.

次に、図7を参照し、カメラ2が備える画像処理ECU22が実行する処理の一例について説明する。図7は、実施形態に係る画像処理ECU22が実行する処理の一例を示すフローチャートである。   Next, an example of processing executed by the image processing ECU 22 included in the camera 2 will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of processing executed by the image processing ECU 22 according to the embodiment.

画像処理ECU22は、撮像部21から所定周期で撮像された画像が入力される毎に、図7に示す処理を実行する。図7に示すように、画像処理ECU22は、撮像部21から画像が入力されると、まず、その画像に関する静止物onlyフラグをOFFにする(ステップS101)。   The image processing ECU 22 executes the process shown in FIG. 7 every time an image captured in a predetermined cycle is input from the imaging unit 21. As shown in FIG. 7, when an image is input from the imaging unit 21, the image processing ECU 22 first turns off the stationary object only flag for the image (step S101).

続いて、画像処理ECU22は、自車速度が0か否かを判定する(ステップS102)。そして、画像処理ECU22は、自車速度が0でないと判定した場合(ステップS102,No)、処理をステップS107へ移す。   Subsequently, the image processing ECU 22 determines whether or not the host vehicle speed is 0 (step S102). If the image processing ECU 22 determines that the host vehicle speed is not zero (step S102, No), the process proceeds to step S107.

また、画像処理ECU22は、自車速度が0であると判定した場合(ステップS102,Yes)、画像による移動物の検知が可能か否かを判定する(ステップS103)。このとき、画像処理ECU22は、例えば、夜間や荒天等で被写体の撮像が困難な場合に、画像による移動物の検知が可能でないと判定する。   Further, when it is determined that the vehicle speed is 0 (step S102, Yes), the image processing ECU 22 determines whether or not the moving object can be detected by the image (step S103). At this time, the image processing ECU 22 determines that the moving object cannot be detected by the image when it is difficult to capture the subject at night or in stormy weather.

そして、画像処理ECU22は、画像による移動物の検知が可能でないと判定した場合(ステップS103,No)、処理をステップS107へ移す。また、画像処理ECU22は、画像による移動物の検知が可能であると判定した場合(ステップS103,Yes)、今回、撮像部21から入力された画像と、前フレームとのフレーム間差分を演算する(ステップS104)。   If the image processing ECU 22 determines that the moving object cannot be detected by the image (No at Step S103), the process proceeds to Step S107. Further, when it is determined that the moving object can be detected by the image (step S103, Yes), the image processing ECU 22 calculates an inter-frame difference between the image input from the imaging unit 21 this time and the previous frame. (Step S104).

続いて、画像処理ECU22は、演算したフレーム間差分が閾値以下であるか否かを判定し(ステップS105)、フレーム間差分が閾値以下でないと判定した場合(ステップS105,No)、処理をステップS107へ移す。   Subsequently, the image processing ECU 22 determines whether or not the calculated interframe difference is equal to or less than the threshold (step S105). If it is determined that the interframe difference is not equal to or less than the threshold (step S105, No), the processing is performed. Move to S107.

また、画像処理ECU22は、フレーム間差分が閾値以下であると判定した場合(ステップS105,Yes)、ステップS101でOFFにした静止物onlyフラグをONにする(ステップS106)。   If the image processing ECU 22 determines that the interframe difference is equal to or less than the threshold (Yes in step S105), the image processing ECU 22 turns on the stationary object only flag that was turned off in step S101 (step S106).

続いて、画像処理ECU22は、静止物onlyフラグをレーダ3へ送信し(ステップS107)、画像を表示部53および注意喚起部4へ出力して(ステップS108)、処理を終了する。そして、画像処理ECU22は、次の画像が撮像部21から入力されると、再度、ステップS101から処理を開始する。   Subsequently, the image processing ECU 22 transmits a stationary object only flag to the radar 3 (step S107), outputs an image to the display unit 53 and the alerting unit 4 (step S108), and ends the process. Then, when the next image is input from the imaging unit 21, the image processing ECU 22 starts the process again from step S101.

なお、画像処理ECU22は、上記したステップS101〜ステップS107の処理を、次に図8を参照して説明するレーダECU32が実行するステップS201〜ステップS204の処理が終了するまでの間に完了する。   Note that the image processing ECU 22 completes the processes of steps S101 to S107 described above until the processes of steps S201 to S204 executed by the radar ECU 32 described below with reference to FIG. 8 are completed.

次に、図8を参照し、レーダ3が備えるレーダECU32が実行する処理の一例について説明する。図8は、実施形態に係るレーダECU32が実行する処理の一例を示すフローチャートである。   Next, an example of processing executed by the radar ECU 32 included in the radar 3 will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of processing executed by the radar ECU 32 according to the embodiment.

ここでは、レーダECU32がカメラ2の死角となる範囲を移動する物体を検知する場合に実行する処理について説明する。なお、レーダECU32がカメラ2の死角となる範囲以外に存在する物体を検知する処理は、一般的なレーダと同様であるため、ここでは、その説明を省略する。   Here, a process that is executed when the radar ECU 32 detects an object that moves in a range of the blind spot of the camera 2 will be described. Note that the process in which the radar ECU 32 detects an object that exists outside the range of the blind spot of the camera 2 is the same as that of a general radar, and thus the description thereof is omitted here.

レーダECU32は、アンテナ部31から所定周期でビート信号が入力される毎に、図8に示す処理を実行する。また、レーダECU32は、画像処理ECU22が図7に示すステップS101〜ステップS208の処理を行う期間に、図8に示すステップS201〜ステップS210の処理を並行して実行する。   The radar ECU 32 executes the process shown in FIG. 8 every time a beat signal is input from the antenna unit 31 at a predetermined cycle. Further, the radar ECU 32 executes the processing of step S201 to step S210 shown in FIG. 8 in parallel during the period in which the image processing ECU 22 performs the processing of step S101 to step S208 shown in FIG.

図8に示すように、レーダECU32は、アンテナ部31からビート信号が入力されると、まず、ビート信号をFFTする(ステップS201)。ここでは、レーダECU32は、2次元FFTを行う。   As shown in FIG. 8, when a beat signal is input from the antenna unit 31, the radar ECU 32 first performs FFT on the beat signal (step S201). Here, the radar ECU 32 performs a two-dimensional FFT.

続いて、レーダECU32は、2次元FFTの結果からピーク抽出を行い(ステップS202)、抽出したピークの位相変化に基づいて物体が存在する角度を算出する(ステップS203)。   Subsequently, the radar ECU 32 performs peak extraction from the result of the two-dimensional FFT (step S202), and calculates an angle at which the object exists based on the phase change of the extracted peak (step S203).

その後、レーダECU32は、抽出したピークに基づいて物体の候補速度を算出する(ステップS204)。このとき、レーダECU32は、位相折り返しを考慮して複数(例えば、5個)の候補速度を算出する。   Thereafter, the radar ECU 32 calculates an object candidate speed based on the extracted peak (step S204). At this time, the radar ECU 32 calculates a plurality of (for example, five) candidate velocities in consideration of phase folding.

その後、レーダECU32は、自車速度が0か否かを判定する(ステップS205)。そして、レーダECU32は、自車速度が0でないと判定した場合(ステップS205,No)、処理を終了する。   Thereafter, the radar ECU 32 determines whether or not the own vehicle speed is zero (step S205). When the radar ECU 32 determines that the host vehicle speed is not 0 (No in step S205), the radar ECU 32 ends the process.

また、レーダECU32は、自車速度が0であると判定した場合(ステップS205,Yes)、今回の処理中にカメラ2から受信した静止物onlyフラグがONか否かを判定する(ステップS206)。そして、レーダECU32は、静止物onlyフラグがONでないと判定した場合(ステップS206,No)、処理を終了する。   If the radar ECU 32 determines that the host vehicle speed is 0 (step S205, Yes), the radar ECU 32 determines whether the stationary object only flag received from the camera 2 during the current process is ON (step S206). . When the radar ECU 32 determines that the stationary object only flag is not ON (step S206, No), the process is terminated.

また、レーダECU32は、静止物onlyフラグがONであると判定した場合(ステップS206,Yes)、ステップS204で算出した候補速度に0[m/s]を含むか否かを判定する(ステップS207)。   When the radar ECU 32 determines that the stationary object only flag is ON (step S206, Yes), the radar ECU 32 determines whether the candidate speed calculated in step S204 includes 0 [m / s] (step S207). ).

そして、レーダECU32は、0[m/s]を含むと判定した場合(ステップS207,Yes)、カメラ2の検知範囲2A内に存在する全てのピークについて相対速度を0に設定し(ステップS208)、処理を終了する。   When the radar ECU 32 determines that 0 [m / s] is included (step S207, Yes), the radar ECU 32 sets the relative speed to 0 for all peaks existing in the detection range 2A of the camera 2 (step S208). The process is terminated.

また、レーダECU32は、候補速度に0[m/s]を含まないと判定した場合(ステップS207,No)移動物の情報に範囲外移動物フラグを付与する(ステップS209)。続いて、レーダECU32は、移動物の情報を車両制御装置6および注意喚起部4へ出力し(ステップS210)、処理を終了する。   Further, when it is determined that the candidate speed does not include 0 [m / s] (No at Step S207), the radar ECU 32 adds an out-of-range moving object flag to the information on the moving object (Step S209). Subsequently, the radar ECU 32 outputs information on the moving object to the vehicle control device 6 and the alerting unit 4 (step S210), and ends the process.

次に、図9を参照し、実施形態に係る注意喚起部4が実行する処理の一例について説明する。図9は、実施形態に係る注意喚起部4が実行する処理の一例を示すフローチャートである。   Next, an example of processing executed by the alerting unit 4 according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of processing executed by the alerting unit 4 according to the embodiment.

注意喚起部4は、レーダECU32から移動物の情報が入力される場合に、図9に示す処理を実行する。具体的には、図9に示すように、注意喚起部4は、レーダECU32から移動物の情報が入力される場合、移動物の情報に範囲外移動物フラグが付与されているか否かを判定する(ステップS301)。   When the information on the moving object is input from the radar ECU 32, the alerting unit 4 executes the process shown in FIG. Specifically, as illustrated in FIG. 9, when information on a moving object is input from the radar ECU 32, the alerting unit 4 determines whether or not an out-of-range moving object flag is added to the information on the moving object. (Step S301).

そして、注意喚起部4は、範囲外移動物フラグが付与されていないと判定した場合(ステップS301,No)、処理を終了する。また、注意喚起部4は、範囲外移動物フラグが付与されていると判定した場合(ステップS301,Yes)、画像中に他の車両があるか否かを、例えば、パターン認識によって判定する(ステップS302)。   And when the alerting part 4 determines with the out-of-range moving object flag not being provided (step S301, No), it complete | finishes a process. Further, when it is determined that the out-of-range moving object flag is assigned (Yes in step S301), the alerting unit 4 determines whether there is another vehicle in the image, for example, by pattern recognition ( Step S302).

そして、注意喚起部4は、他の車両があると判定した場合(ステップS302,Yes)、他の車両に起因するカメラ2の死角範囲を推定し(ステップS303)、処理をステップS305へ移す。   When the alerting unit 4 determines that there is another vehicle (step S302, Yes), the blind spot range of the camera 2 caused by the other vehicle is estimated (step S303), and the process proceeds to step S305.

また、注意喚起部4は、画像中に他の車両がないと判定した場合(ステップS302,No)、地図情報54から判定する道路形状に基づいてカメラ2の死角範囲を推定し(ステップS304)、処理をステップS305へ移す。ステップS305において、注意喚起部4は、表示中の画像における推定したカメラ2の死角範囲に対応する位置に、注意喚起情報Cを表示させ、処理を終了する。   Further, when it is determined that there is no other vehicle in the image (No at Step S302), the alerting unit 4 estimates the blind spot range of the camera 2 based on the road shape determined from the map information 54 (Step S304). Then, the process proceeds to step S305. In step S305, the alerting unit 4 displays the alerting information C at a position corresponding to the estimated blind spot range of the camera 2 in the displayed image, and ends the process.

なお、上述した実施形態では、車両10が停止中である場合に、判定部35がカメラ2の死角範囲に移動物が存在する可能性があるか否かの判定を行う場合について説明したが、これは一例である。   In the above-described embodiment, the case where the determination unit 35 determines whether there is a possibility that a moving object exists in the blind spot range of the camera 2 when the vehicle 10 is stopped has been described. This is an example.

判定部35は、車両10の走行速度が完全にゼロでなくても、実質的に物体の検知に支障がない走行速度であれば、車両10が走行中であっても、カメラ2の死角範囲に移動物が存在する可能性があるか否かの判定を行うことができる。   Even if the traveling speed of the vehicle 10 is not completely zero even if the traveling speed is such that the detection of an object is not substantially hindered, the determination unit 35 can detect the blind spot range of the camera 2. It is possible to determine whether or not there is a possibility of moving objects.

例えば、判定部35は、カメラ2によって撮像される画像のフレーム間差分から推定される車両10の走行速度よりも、車両10に対する相対速度が十分に速い速度で移動する物体がレーダ3によって検知される場合に、カメラ2の死角範囲に移動物が存在する可能性があると判定することができる。   For example, in the determination unit 35, the radar 3 detects an object that moves at a sufficiently high relative speed with respect to the vehicle 10 than the traveling speed of the vehicle 10 estimated from the inter-frame difference between images captured by the camera 2. In this case, it can be determined that there is a possibility that a moving object exists in the blind spot range of the camera 2.

ただし、レーダ3は、車両10の走行速度が速過ぎると、建物等の静止物と移動物との速度差を検出することが困難になる。そこで、判定部35は、車両10の走行速度が所定速度(例えば、5km/h)以下の場合に、カメラ2の死角範囲に移動物が存在する可能性があるか否かの判定を行う。   However, when the traveling speed of the vehicle 10 is too high, the radar 3 becomes difficult to detect a speed difference between a stationary object such as a building and a moving object. Therefore, the determination unit 35 determines whether there is a possibility that a moving object exists in the blind spot range of the camera 2 when the traveling speed of the vehicle 10 is a predetermined speed (for example, 5 km / h) or less.

これにより、物体検知装置1は、車両10の走行速度が所定速度以下であれば、車両10が走行中であっても、カメラ2の死角範囲に移動物が存在する可能性があるか否かの判定を正確に行うことができる。   Thereby, the object detection device 1 determines whether or not there is a moving object in the blind spot range of the camera 2 even when the vehicle 10 is traveling if the traveling speed of the vehicle 10 is equal to or less than a predetermined speed. Can be accurately determined.

また、上述した実施形態では、カメラ2が検知範囲2A全体を対象とし、検知範囲2A内に静止物しか存在しない場合に限り、静止物onlyフラグをONにする場合について説明したが、これは一例である。   In the above-described embodiment, the case has been described in which the camera 2 covers the entire detection range 2A, and the stationary object only flag is set to ON only when there is only a stationary object in the detection range 2A. It is.

次に、図10Aおよび図10Bを参照し、カメラ2による静止物onlyフラグの切替態様の変形例1および変形例2について説明する。図10Aは、実施形態の変形例1に係る静止物onlyフラグの切替態様の説明図である。図10Bは、実施形態の変形例2に係る静止物onlyフラグの切替態様の説明図である。   Next, with reference to FIG. 10A and FIG. 10B, the modification 1 and the modification 2 of the switching mode of the stationary object only flag by the camera 2 are demonstrated. FIG. 10A is an explanatory diagram of a switching mode of a stationary object only flag according to the first modification of the embodiment. FIG. 10B is an explanatory diagram of a switching mode of the stationary object only flag according to the second modification of the embodiment.

図10Aに示すように、カメラ2は、例えば、撮像する画像Pを4つの領域P11,P12,P13,P14に分割し、各領域P11,P12,P13,P14に対して、それぞれ静止物onlyフラグを設定する構成であってもよい。   As shown in FIG. 10A, the camera 2 divides, for example, an image P to be captured into four regions P11, P12, P13, and P14, and each of the regions P11, P12, P13, and P14 has a stationary object only flag. May be configured to set.

かかる構成のカメラ2は、例えば、3つの各領域P11,P12,P13で移動物を検出し、右端の領域P14だけ移動物を検出しない場合、右端の領域P14の静止物onlyフラグのみONとし、他の静止物onlyフラグをOFFにしてレーダ3へ送信する。   For example, when the camera 2 configured as described above detects a moving object in each of the three areas P11, P12, and P13 and does not detect a moving object only in the rightmost area P14, only the stationary object only flag in the rightmost area P14 is set to ON. The other stationary object only flag is turned OFF and transmitted to the radar 3.

これにより、レーダ3は、右端の領域P14に対応する検知範囲についてのみ、死角範囲に移動物が存在する可能性の有無を判定することになるので、処理負荷を低減することができる。   As a result, the radar 3 determines whether or not there is a possibility that a moving object exists in the blind spot range only for the detection range corresponding to the rightmost region P14, so that the processing load can be reduced.

また、図10Bに示すように、カメラ2は、例えば、カメラレンズの光軸方向を0°とし、カメラレンズを中心として光軸方向から時計回りの方向を正の角度とし、反時計回りの角度として、移動物が検出されない範囲を角度でレーダ通知してもよい。   As shown in FIG. 10B, for example, the camera 2 sets the optical axis direction of the camera lens to 0 °, sets the clockwise direction from the optical axis direction around the camera lens as a positive angle, and counterclockwise angle. As an alternative, the range in which no moving object is detected may be notified by radar.

かかる構成のカメラ2は、例えば、−30°〜−15°の範囲で移動物を検出せず、−15〜0°の範囲でカメラ2の前方を横断する歩行者T8を検出し、0°〜+30°の範囲で接近してくる対向車T9を検出する場合がある。   The camera 2 having such a configuration detects, for example, a pedestrian T8 that crosses the front of the camera 2 in a range of −15 ° to 0 ° without detecting a moving object in a range of −30 ° to −15 °, and 0 ° There is a case where the oncoming vehicle T9 approaching in the range of ˜ + 30 ° is detected.

かかる場合、カメラ2は、−30°〜−15°の角度範囲にONの静止物onlyフラグを対応付け、−15〜+30°という角度範囲にOFFの静止物onlyフラグを対応付けてレーダ3へ送信する。これにより、レーダ3は、−30°〜−15°の角度範囲についてのみ、死角範囲に移動物が存在する可能性の有無を判定することになるので、処理負荷を低減することができる。   In such a case, the camera 2 associates the ON stationary object only flag with the angle range of −30 ° to −15 ° and associates the OFF stationary object only flag with the angle range of −15 to + 30 ° to the radar 3. Send. As a result, the radar 3 determines whether or not there is a possibility that a moving object exists in the blind spot range only for the angle range of −30 ° to −15 °, so that the processing load can be reduced.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 物体検知装置
2 カメラ
21 撮像部
22 画像処理ECU
23 検出部
3 レーダ
31 アンテナ部
32 レーダECU
33 信号処理部
34 認識処理部
35 判定部
4 注意喚起部
DESCRIPTION OF SYMBOLS 1 Object detection apparatus 2 Camera 21 Imaging part 22 Image processing ECU
23 Detection unit 3 Radar 31 Antenna unit 32 Radar ECU
33 Signal Processing Unit 34 Recognition Processing Unit 35 Judgment Unit 4 Alerting Unit

Claims (6)

カメラ装置とレーダ装置とを備え、
前記カメラ装置は、
車両の周囲における所定範囲を撮像する撮像部と、
前記撮像部によって撮像される画像に基づいて前記所定範囲に存在する移動物を検出する検出部と
を備え、
前記レーダ装置は、
前記カメラ装置によって前記移動物が検出されない期間に、前記レーダ装置が移動物を検知した場合、前記所定範囲のうち前記カメラ装置の死角となる死角範囲に移動物が存在する可能性があると判定する判定部
を備えることを特徴とする物体検知装置。
A camera device and a radar device;
The camera device is
An imaging unit for imaging a predetermined range around the vehicle;
A detection unit that detects a moving object existing in the predetermined range based on an image captured by the imaging unit;
The radar device is
When the radar apparatus detects a moving object during a period in which the moving object is not detected by the camera device, it is determined that there is a possibility that the moving object exists in a blind spot range that is a blind spot of the camera device in the predetermined range. An object detection apparatus comprising: a determination unit that performs
前記判定部によって前記死角範囲に移動物が存在する可能性があると判定される場合に、表示装置によって表示中の前記画像に注意喚起情報を重畳表示させる注意喚起部
を備えることを特徴とする請求項1に記載の物体検知装置。
When it is determined by the determination unit that there is a possibility that a moving object is present in the blind spot range, the display unit is provided with a warning unit that superimposes warning information on the image being displayed. The object detection apparatus according to claim 1.
前記注意喚起部は、
地図情報から判定する道路形状に基づいて前記死角範囲を推定し、前記画像における当該死角範囲に対応する位置に前記注意喚起情報を表示させる
ことを特徴とする請求項2に記載の物体検知装置。
The alerting part is
The object detection device according to claim 2, wherein the blind spot range is estimated based on a road shape determined from map information, and the alert information is displayed at a position corresponding to the blind spot range in the image.
前記注意喚起部は、
前記画像中の他の車両に起因する前記死角範囲を推定し、前記画像における当該死角範囲に対応する位置に前記注意喚起情報を表示させる
ことを特徴とする請求項2または請求項3に記載の物体検知装置。
The alerting part is
The said alerting | reporting information is displayed on the position corresponding to the said blind spot range in the said image by estimating the said blind spot range resulting from the other vehicle in the said image. Object detection device.
前記判定部は、
前記車両の走行速度が所定速度以下の場合に、前記死角範囲に移動物が存在する可能性があるか否かの判定を行う
ことを特徴とする請求項1〜4のいずれか一つに記載の物体検知装置。
The determination unit
It is determined whether there is a possibility that a moving object exists in the blind spot range when the traveling speed of the vehicle is equal to or lower than a predetermined speed. Object detection device.
カメラ装置によって車両の周囲における所定範囲を撮像する撮像工程と、
前記撮像工程によって撮像される画像に基づいて前記所定範囲に存在する物体を検出する検出工程と、
前記カメラ装置によって移動物が検出されない期間に、レーダ装置が移動物を検知した場合、前記所定範囲のうち前記カメラ装置の死角となる死角範囲に移動物が存在する可能性があると判定する判定工程と
を含むことを特徴とする物体検知方法。
An imaging step of imaging a predetermined range around the vehicle with a camera device;
A detection step of detecting an object present in the predetermined range based on an image captured by the imaging step;
When the radar device detects a moving object during a period in which no moving object is detected by the camera device, the determination is made that there is a possibility that the moving object may exist in a blind spot range that is a blind spot of the camera device in the predetermined range. An object detection method comprising the steps of:
JP2018089392A 2018-05-07 2018-05-07 Object detection device Active JP7244215B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018089392A JP7244215B2 (en) 2018-05-07 2018-05-07 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018089392A JP7244215B2 (en) 2018-05-07 2018-05-07 Object detection device

Publications (2)

Publication Number Publication Date
JP2019197270A true JP2019197270A (en) 2019-11-14
JP7244215B2 JP7244215B2 (en) 2023-03-22

Family

ID=68538368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018089392A Active JP7244215B2 (en) 2018-05-07 2018-05-07 Object detection device

Country Status (1)

Country Link
JP (1) JP7244215B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021181771A1 (en) * 2020-03-12 2021-09-16 パナソニックIpマネジメント株式会社 Estimation device and estimation method
CN114067608A (en) * 2020-08-06 2022-02-18 丰田自动车株式会社 Vehicle-mounted detection device and detection method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046766A (en) * 2006-08-11 2008-02-28 Denso Corp Vehicle external information display device
JP2008046744A (en) * 2006-08-11 2008-02-28 Sumitomo Electric Ind Ltd Approaching mobile body displaying apparatus, system, and method
JP2009193135A (en) * 2008-02-12 2009-08-27 Xanavi Informatics Corp Onboard monitor device
JP2011242860A (en) * 2010-05-14 2011-12-01 Toyota Motor Corp Obstacle recognition apparatus
JP2013120574A (en) * 2011-12-08 2013-06-17 Daimler Ag On-vehicle pedestrian alarm device
JP2016110629A (en) * 2014-11-27 2016-06-20 パナソニックIpマネジメント株式会社 Object detection device and road reflecting mirror
JP2016122308A (en) * 2014-12-25 2016-07-07 クラリオン株式会社 Vehicle controller

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046766A (en) * 2006-08-11 2008-02-28 Denso Corp Vehicle external information display device
JP2008046744A (en) * 2006-08-11 2008-02-28 Sumitomo Electric Ind Ltd Approaching mobile body displaying apparatus, system, and method
JP2009193135A (en) * 2008-02-12 2009-08-27 Xanavi Informatics Corp Onboard monitor device
JP2011242860A (en) * 2010-05-14 2011-12-01 Toyota Motor Corp Obstacle recognition apparatus
JP2013120574A (en) * 2011-12-08 2013-06-17 Daimler Ag On-vehicle pedestrian alarm device
JP2016110629A (en) * 2014-11-27 2016-06-20 パナソニックIpマネジメント株式会社 Object detection device and road reflecting mirror
JP2016122308A (en) * 2014-12-25 2016-07-07 クラリオン株式会社 Vehicle controller

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021181771A1 (en) * 2020-03-12 2021-09-16 パナソニックIpマネジメント株式会社 Estimation device and estimation method
CN115151964A (en) * 2020-03-12 2022-10-04 松下知识产权经营株式会社 Estimation device and estimation method
CN114067608A (en) * 2020-08-06 2022-02-18 丰田自动车株式会社 Vehicle-mounted detection device and detection method
CN114067608B (en) * 2020-08-06 2023-10-10 丰田自动车株式会社 Vehicle-mounted detection device and detection method

Also Published As

Publication number Publication date
JP7244215B2 (en) 2023-03-22

Similar Documents

Publication Publication Date Title
CN108932869B (en) Vehicle system, vehicle information processing method, recording medium, traffic system, infrastructure system, and information processing method
CN110785798B (en) Traffic environment adaptive threshold
CA3001287C (en) Display assistance device and display assistance method
US8461976B2 (en) On-vehicle device and recognition support system
US10453344B2 (en) Information processing apparatus and non-transitory recording medium
US8854458B2 (en) Object detection device
CN109891262B (en) Object detecting device
JP2011118483A (en) On-vehicle device and recognition support system
JP6628189B2 (en) Detection device and detection method
US20170116862A1 (en) Driving support apparatus and driving support method
JP6323064B2 (en) Traveling lane identification device, lane change support device, traveling lane identification method
JP2015219858A (en) Object recognition device and vehicle
WO2016181618A1 (en) Monitored area setting device and monitored area setting method
JP2008060874A (en) On-vehicle camera and stain detector for on-vehicle camera
JP7145034B2 (en) Driving support device
JP7275623B2 (en) Driving support device
JP2008037361A (en) Obstacle recognition device
JP2016192167A (en) Vehicle control device and vehicle control method
JP6394440B2 (en) Dirt determination device
JP7244215B2 (en) Object detection device
JP2009187351A (en) Obstacle detecting device and obstacle detecting method
JP6363393B2 (en) Vehicle periphery monitoring device
JP2020047210A (en) Object detection device
JP4872517B2 (en) Obstacle recognition device
US20190228238A1 (en) Object detection apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210422

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20211013

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150