JP2009132259A - Vehicle surrounding-monitoring device - Google Patents

Vehicle surrounding-monitoring device Download PDF

Info

Publication number
JP2009132259A
JP2009132259A JP2007309797A JP2007309797A JP2009132259A JP 2009132259 A JP2009132259 A JP 2009132259A JP 2007309797 A JP2007309797 A JP 2007309797A JP 2007309797 A JP2007309797 A JP 2007309797A JP 2009132259 A JP2009132259 A JP 2009132259A
Authority
JP
Japan
Prior art keywords
vehicle
obstacle
detection
distance
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007309797A
Other languages
Japanese (ja)
Inventor
Satoshi Komuro
聡 小室
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2007309797A priority Critical patent/JP2009132259A/en
Publication of JP2009132259A publication Critical patent/JP2009132259A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle surrounding-monitoring device capable of enhancing effect of informing by reducing unnecessary informing to a driver. <P>SOLUTION: The vehicle surrounding monitoring device 1 includes a detection area setting part 13, an obstacle detection part 18, and an informing determination part 15. The the detection area setting part 13 sets three detection areas different in size according to the distance from a vehicle on an expected course of the vehicle in a camera image based on steering information of the vehicle and information of camera installing conditions. The obstacle detection part 18 provides image processing for each of the three detection areas and detects an obstacle in the detection area. The informing determination part 15 determines whether the detection informing of the obstacle is performed or not based on the distance from the vehicle of the detection area in which the obstacle is detected. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両に搭載したカメラを用いて車両周辺の障害物を検出する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that detects an obstacle around a vehicle using a camera mounted on the vehicle.

従来、車両に搭載したカメラを使って車両周辺のカメラ画像を撮影し、そのカメラ画像に画像処理を施して、車両周辺の障害物を検出する物体検出装置が知られている(例えば特許文献1参照)。この従来の物体検出装置では、事前に(例えば停車直後に)撮影した基準画像とその後に逐次撮影した比較画像とを比較する差分処理を行って、比較画像中の障害物が検出される。また、二つの比較画像(前回の比較画像と今回の比較画像)を互いに比較することによって、その障害物が静止物体であるか移動物体であるかの判定が行われる。
特開2000−182027号公報(第4−10頁、第6図)
2. Description of the Related Art Conventionally, there has been known an object detection device that captures a camera image around a vehicle using a camera mounted on the vehicle, performs image processing on the camera image, and detects an obstacle around the vehicle (for example, Patent Document 1). reference). In this conventional object detection apparatus, an obstacle in the comparison image is detected by performing a difference process comparing a reference image captured in advance (for example, immediately after stopping) and a comparison image sequentially captured thereafter. Further, by comparing the two comparison images (the previous comparison image and the current comparison image) with each other, it is determined whether the obstacle is a stationary object or a moving object.
JP 2000-182027 A (page 4-10, FIG. 6)

しかしながら、従来の物体検出装置では、車両から障害物までの距離に係らず、カメラ画像中のすべての障害物が検出される。このように検出された障害物をすべて一律にドライバーに報知すると、車両から遠く離れた障害物であって安全走行に影響のないものについてもドライバーに報知されることになる。このように本来報知が不要な障害物についてまで報知が行われると、本当に報知が必要な障害物(例えば車両の近くの障害物で危険度の高いもの)についての報知の効果(注意喚起効果)が希薄になるおそれがある。   However, in the conventional object detection device, all obstacles in the camera image are detected regardless of the distance from the vehicle to the obstacle. If all the obstacles detected in this way are uniformly notified to the driver, the driver is also notified of obstacles far from the vehicle that do not affect safe driving. When notifications are made even for obstacles that do not need to be reported in this way, the notification effect (attention effect) on the obstacles that really need to be notified (for example, obstacles near the vehicle that are highly dangerous) May become diluted.

また、従来の物体検出装置では、車両の停車中に基準画像を撮影する必要があり、車両が走行中の場合については考慮されていない。また、検出した障害物が静止物体であるか移動物体であるかは判定することができるものの、その障害物が何であるか(例えば人であるのか車両であるのか等)については判定することができず、障害物の誤検出をしてしまうこともあり得る。   Further, in the conventional object detection device, it is necessary to take a reference image while the vehicle is stopped, and no consideration is given to the case where the vehicle is running. Further, although it can be determined whether the detected obstacle is a stationary object or a moving object, it is possible to determine what the obstacle is (for example, a person or a vehicle). It may not be possible to erroneously detect an obstacle.

本発明は、上記の課題に鑑みてなされたもので、ドライバーに不要な報知を減らして報知の効果を高めることのできる車両周辺監視装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a vehicle periphery monitoring device that can reduce the notification unnecessary for the driver and enhance the effect of the notification.

本発明の車両周辺監視装置は、車両に搭載されたカメラで撮影したカメラ画像を用いて車両周辺の障害物を検出する車両周辺監視装置であって、前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定する検出領域設定手段と、前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出する障害物検出手段と、前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定する報知決定手段と、を備えている。   A vehicle periphery monitoring device according to the present invention is a vehicle periphery monitoring device that detects an obstacle around a vehicle using a camera image taken by a camera mounted on the vehicle, the steering angle information of the vehicle steering and the camera Detection area setting means for setting a plurality of detection areas having different sizes in accordance with the distance from the vehicle on the expected course of the vehicle in the camera image, and the plurality of detection areas And detecting obstacles based on the distance from the vehicle to the detection area where the obstacle is detected, and obstacle detection means for detecting an obstacle in the detection area. Notification determining means for determining whether to perform or not.

これにより、車両からの距離ごとに複数の検出領域が設定され、各検出領域について障害物の検出が行われる。そして、障害物が検出された検出領域の車両からの距離に基づいて検出報知を行うか否かが決定される。例えば、車両の近くの障害物の検出報知が行われ、車両から遠く離れた障害物の検出報知は行われない。これにより、ドライバーに不要な報知を減らすことができる。また、従来のように車両の停車中に基準画像を撮影する必要がないので、車両が走行中であっても障害物の検出や報知が可能である。   Thus, a plurality of detection areas are set for each distance from the vehicle, and obstacles are detected for each detection area. Then, it is determined whether or not to perform the detection notification based on the distance from the vehicle in the detection area where the obstacle is detected. For example, the detection notification of the obstacle near the vehicle is performed, and the detection notification of the obstacle far away from the vehicle is not performed. Thereby, notifications unnecessary for the driver can be reduced. Further, since it is not necessary to take a reference image while the vehicle is stopped as in the prior art, it is possible to detect and notify an obstacle even when the vehicle is traveling.

また、本発明の車両周辺監視装置では、前記検出領域設定手段は、前記車両の予想進路に沿った仮想三次元ゾーンを前記車両からの距離に応じて切断して形成される仮想断面エリアを、前記検出領域として設定し、前記報知決定手段は、前記検出領域の前記車両からの距離が所定のしきい距離以下である場合には、前記障害物の検出報知を行い、前記検出領域の前記車両からの距離が前記しきい距離より大きい場合には、前記障害物の検出報知を行わないように決定してもよい。   Further, in the vehicle periphery monitoring device of the present invention, the detection area setting means has a virtual cross-sectional area formed by cutting a virtual three-dimensional zone along the predicted course of the vehicle according to the distance from the vehicle, The detection area is set as the detection area, and when the distance of the detection area from the vehicle is equal to or less than a predetermined threshold distance, the notification determination unit performs detection notification of the obstacle, and the vehicle in the detection area If the distance from the vehicle is larger than the threshold distance, it may be determined not to notify the obstacle detection.

これにより、車両の予想進路に沿った仮想三次元ゾーンを車両からの距離ごとに切断した仮想断面エリアが検出領域として設定される。このように三次元的な要素を考慮することにより、検出領域が適切に設定される。例えば、従来のように平面的に(二次元的に)検出領域を設定した場合には、縦長の障害物の一部のみ(例えば歩行者の足のみ)しか検出領域に入らず、障害物を誤検出する(歩行者以外の障害物として誤って検出する)ことがある。それに対して、本発明では三次元的な要素を考慮して検出領域が適切に設定されているので、縦長の障害物であっても全体が検出領域に入り、障害物の誤検出を少なくすることができる。また、この場合、所定のしきい距離より近くの障害物については検出報知が行われ、しきい距離より遠くの障害物については検出報知が行われない。これにより、ドライバーに不要な報知を減らすことができる。   Thereby, the virtual cross-sectional area obtained by cutting the virtual three-dimensional zone along the predicted course of the vehicle for each distance from the vehicle is set as the detection region. In this way, the detection region is appropriately set by considering the three-dimensional element. For example, when a detection area is set in a two-dimensional manner as in the past, only a part of a vertically long obstacle (for example, only a pedestrian's foot) enters the detection area. It may be erroneously detected (detected as an obstacle other than a pedestrian). On the other hand, in the present invention, since the detection area is appropriately set in consideration of a three-dimensional element, even if it is a vertically long obstacle, the entire area enters the detection area, thereby reducing false detection of the obstacle. be able to. Further, in this case, detection notification is performed for obstacles closer than a predetermined threshold distance, and detection notification is not performed for obstacles farther than the threshold distance. Thereby, notifications unnecessary for the driver can be reduced.

また、本発明の車両周辺監視装置では、前記障害物検出手段は、前記障害物のモデルパターンのデータを記憶した記憶手段と、前記障害物が検出された検出領域の前記車両からの距離に応じてパターンサイズを調整して、前記検出領域内で検出されたパターンと前記障害物のモデルパターンが一致するか否を判断するパターンマッチング処理を行うパターンマッチング手段と、を備え、前記報知決定手段は、前記パターンマッチング処理の結果に応じて、前記障害物の検出報知を行うか否かを決定してもよい。   In the vehicle periphery monitoring device according to the present invention, the obstacle detection unit may be a storage unit that stores model pattern data of the obstacle, and a detection area where the obstacle is detected is detected according to a distance from the vehicle. Pattern matching means for adjusting a pattern size and performing pattern matching processing for determining whether or not the pattern detected in the detection area matches the model pattern of the obstacle, and the notification determining means Depending on the result of the pattern matching process, it may be determined whether or not the obstacle detection notification is performed.

このようにパターンマッチング処理を行うことにより、検出された障害物が何であるか(例えば、人であるのか車両であるのか等)について判定することができる。そして、そのパターンマッチング処理の結果に応じて、適切に障害物の検出報知が行われる。例えば、パターンマッチング処理の結果、検出した障害物が「子供」の歩行者である場合には、危険度が高いので検出報知が行われ、検出した障害物が「大人」の歩行者である場合には、比較的危険度が低いので検出報知が行われない。   By performing the pattern matching process in this way, it is possible to determine what the detected obstacle is (for example, whether it is a person or a vehicle). And according to the result of the pattern matching process, the obstacle detection notification is appropriately performed. For example, if the detected obstacle is a “child” pedestrian as a result of the pattern matching process, the detection is performed because the danger level is high, and the detected obstacle is an “adult” pedestrian. Is not detected because the degree of danger is relatively low.

また、本発明の車両周辺監視装置では、前記車両には、複数のカメラが搭載されており、前記車両のシフトギア情報に基づいて、前記複数のカメラのカメラ画像から前記障害物の検出に用いるカメラ画像を選択する画像選択手段を備えてもよい。   In the vehicle periphery monitoring device of the present invention, a plurality of cameras are mounted on the vehicle, and the camera used for detecting the obstacle from the camera images of the plurality of cameras based on shift gear information of the vehicle. You may provide the image selection means to select an image.

これにより、シフトギア操作に応じて、障害物の検出に用いるカメラ画像が適切に切り替えられる。例えば、シフトギアを「R」にした場合には、車両後方のカメラ画像に切り替えられ、車両後方の進路上の障害物を検出することができる。また、シフトギアを「D」にした場合には、車両前方のカメラ画像に切り替えられ、車両前方の進路上の障害物を検出することができる。   Thereby, the camera image used for the detection of an obstacle is appropriately switched according to the shift gear operation. For example, when the shift gear is set to “R”, the camera image is switched to the rear of the vehicle, and an obstacle on the path behind the vehicle can be detected. Further, when the shift gear is set to “D”, the camera image is switched to the front of the vehicle, and an obstacle on the course ahead of the vehicle can be detected.

また、本発明の車両周辺監視装置では、前記報知決定手段は、前記車両の速度情報に基づいて前記しきい距離を変更するしきい距離変更手段を備えてもよい。   In the vehicle periphery monitoring device of the present invention, the notification determining unit may include a threshold distance changing unit that changes the threshold distance based on speed information of the vehicle.

これにより、車両の走行速度に応じて、障害物の検出報知を行う基準が適切に変更される。例えば、車両の走行速度が低速である場合には、車両の近くの障害物の検出報知が行われ、車両から遠く離れた障害物の検出報知は危険度が低いため行われない。また、車両の走行速度が高速である場合には、車両から遠く離れた障害物であっても危険度が高いため検出報知が行われる。   Thereby, the reference | standard which performs detection notification of an obstruction is changed appropriately according to the running speed of a vehicle. For example, when the traveling speed of the vehicle is low, the detection notification of the obstacle near the vehicle is performed, and the detection notification of the obstacle far away from the vehicle is not performed because the risk is low. Further, when the traveling speed of the vehicle is high, the detection notification is performed because the risk is high even for an obstacle far from the vehicle.

本発明の車両周辺監視方法は、車両に搭載されたカメラで撮影したカメラ画像を用いて車両周辺の障害物を検出する車両周辺監視方法であって、前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定し、前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出し、前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定する。   The vehicle periphery monitoring method of the present invention is a vehicle periphery monitoring method for detecting obstacles around the vehicle using a camera image taken by a camera mounted on the vehicle, the steering angle information of the vehicle steering and the camera On the basis of the installation condition information, a plurality of detection areas having different sizes according to the distance from the vehicle are set on the expected course of the vehicle in the camera image, and image processing is performed on each of the plurality of detection areas. The obstacle is detected in the detection area, and it is determined whether or not to detect the obstacle based on the distance from the vehicle in the detection area where the obstacle is detected.

この方法によれば、車両からの距離ごとに複数の検出領域が設定され、各検出領域について障害物の検出が行われる。そして、障害物が検出された検出領域の車両からの距離に基づいて検出報知を行うか否かが決定される。例えば、車両の近くの障害物の検出報知が行われ、車両から遠く離れた障害物の検出報知は行われない。これにより、ドライバーに不要な報知を減らすことができる。また、従来のように車両の停車中に基準画像を撮影する必要がないので、車両が走行中であっても障害物の検出や報知が可能である。   According to this method, a plurality of detection areas are set for each distance from the vehicle, and obstacles are detected for each detection area. Then, it is determined whether or not to perform the detection notification based on the distance from the vehicle in the detection area where the obstacle is detected. For example, the detection notification of the obstacle near the vehicle is performed, and the detection notification of the obstacle far away from the vehicle is not performed. Thereby, notifications unnecessary for the driver can be reduced. Further, since it is not necessary to take a reference image while the vehicle is stopped as in the prior art, it is possible to detect and notify an obstacle even when the vehicle is traveling.

本発明の車両周辺監視プログラムは、車両に搭載されたカメラで撮影したカメラ画像を用いて車両周辺の障害物を検出する車両周辺監視プログラムであって、コンピュータに、前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定する検出領域設定処理と、前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出する障害物検出処理と、前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定する報知決定処理と、を実行させる。   The vehicle periphery monitoring program according to the present invention is a vehicle periphery monitoring program for detecting obstacles around the vehicle using a camera image taken by a camera mounted on the vehicle, and the steering angle information of the steering of the vehicle is stored in a computer. A plurality of detection areas having different sizes according to the distance from the vehicle on the expected course of the vehicle in the camera image based on the installation condition information of the camera The obstacle is detected based on an obstacle detection process for detecting an obstacle in the detection area by performing image processing on each of the detection areas, and a distance from the vehicle to the detection area where the obstacle is detected. And a notification determination process for determining whether or not to perform the detection notification.

このプログラムによれば、車両からの距離ごとに複数の検出領域が設定され、各検出領域について障害物の検出が行われる。そして、障害物が検出された検出領域の車両からの距離に基づいて検出報知を行うか否かが決定される。例えば、車両の近くの障害物の検出報知が行われ、車両から遠く離れた障害物の検出報知は行われない。これにより、ドライバーに不要な報知を減らすことができる。また、従来のように車両の停車中に基準画像を撮影する必要がないので、車両が走行中であっても障害物の検出や報知が可能である。   According to this program, a plurality of detection areas are set for each distance from the vehicle, and obstacles are detected for each detection area. Then, it is determined whether or not to perform the detection notification based on the distance from the vehicle in the detection area where the obstacle is detected. For example, the detection notification of the obstacle near the vehicle is performed, and the detection notification of the obstacle far away from the vehicle is not performed. Thereby, notifications unnecessary for the driver can be reduced. Further, since it is not necessary to take a reference image while the vehicle is stopped as in the prior art, it is possible to detect and notify an obstacle even when the vehicle is traveling.

本発明の車両周辺監視装置によれば、ドライバーに不要な報知を減らして報知の効果を高めることができる。   According to the vehicle periphery monitoring device of the present invention, it is possible to reduce the notification unnecessary for the driver and enhance the notification effect.

以下、本発明の実施の形態の車両周辺監視装置について、図面を用いて説明する。本実施の形態では、車両の後退駐車支援装置等に用いられる場合を例示する。後退駐車支援装置は、車両を後退させて駐車する際に、車両後方の障害物を検出してドライバーに報知する。このような後退駐車支援機能は、装置のHDDやメモリ等に格納されたプログラムによって実現される。   Hereinafter, a vehicle periphery monitoring device according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a case where the present invention is used for a reverse parking assist device for a vehicle is illustrated. The reverse parking assist device detects an obstacle behind the vehicle and informs the driver when the vehicle is parked backward. Such a reverse parking support function is realized by a program stored in the HDD or memory of the apparatus.

本実施の形態の車両周辺監視装置を、図1〜図10を用いて説明する。ここでは、まず、車両周辺監視装置の構成について説明する。図1は、車両周辺監視装置の主な構成を示したブロック図である。   The vehicle periphery monitoring apparatus of this Embodiment is demonstrated using FIGS. 1-10. Here, first, the configuration of the vehicle periphery monitoring device will be described. FIG. 1 is a block diagram showing a main configuration of a vehicle periphery monitoring apparatus.

図1に示すように、車両周辺監視装置1は、CPUやメモリ等で構成されたナビゲーション制御ユニット2と画像処理制御ユニット3を備えている。ナビゲーション制御ユニット2は、後退駐車支援等のための音声案内や画像案内を行うナビゲーション機能を備えている。また、画像処理制御ユニット3は、後退駐車支援等のための画像処理を行う機能を備えている。なお、ナビゲーション制御ユニット2と画像処理制御ユニット3の詳細な構成については後述する。   As shown in FIG. 1, the vehicle periphery monitoring device 1 includes a navigation control unit 2 and an image processing control unit 3 configured by a CPU, a memory, and the like. The navigation control unit 2 has a navigation function for performing voice guidance and image guidance for backward parking assistance and the like. The image processing control unit 3 has a function of performing image processing for backward parking assistance and the like. Detailed configurations of the navigation control unit 2 and the image processing control unit 3 will be described later.

車両には、複数のカメラ4が搭載されている。例えば、車両の前方を撮影する前方カメラ、車両の側方を撮影する側方カメラ、車両の後方を撮影する後方カメラなどが、車両に搭載されている。なお、図1では、説明の便宜のため、複数のカメラ4を図示せず、1つのカメラ4(例えば、後方カメラ)のみが図示されている。そして、カメラ4で撮影されたカメラ画像は、ナビゲーション制御ユニット2と画像処理制御ユニット3にそれぞれ入力される。   A plurality of cameras 4 are mounted on the vehicle. For example, a front camera that captures the front of the vehicle, a side camera that captures the side of the vehicle, a rear camera that captures the rear of the vehicle, and the like are mounted on the vehicle. In FIG. 1, for convenience of explanation, a plurality of cameras 4 are not shown, and only one camera 4 (for example, a rear camera) is shown. And the camera image image | photographed with the camera 4 is input into the navigation control unit 2 and the image processing control unit 3, respectively.

また、車両には、シフトギア位置(例えば「1、2、D、N、R、P」など)を検出するためのシフトギアスイッチ5と、ステアリングの舵角(切れ角)を検出する舵角センサ6と、車両の走行速度を検出する速度センサ7が備えられている。そして、ナビゲーション制御ユニット2には、シフトギアスイッチ5からシフトギア位置を示すシフトギア情報が入力され、舵角センサ6からステアリングの舵角を示す舵角情報が入力され、速度センサ7から車両の走行速度を示す速度情報が入力される。   Further, the vehicle includes a shift gear switch 5 for detecting a shift gear position (for example, “1, 2, D, N, R, P”, etc.) and a steering angle sensor 6 for detecting a steering angle (cutting angle) of the steering. And a speed sensor 7 for detecting the traveling speed of the vehicle. The navigation control unit 2 receives shift gear information indicating the shift gear position from the shift gear switch 5, receives steering angle information indicating the steering angle of the steering from the steering angle sensor 6, and determines the traveling speed of the vehicle from the speed sensor 7. The indicated speed information is input.

また、図1に示すように、車両周辺監視装置1は、モニタ8とスピーカ9を備えている。モニタ8には、ナビゲーション制御ユニット2から画像データが送られて、後退駐車支援等のための画像案内が表示される。また、スピーカ9には、ナビゲーション制御ユニット2から音声データが送られて、後退駐車支援等のための音声案内が行われる。本実施の形態では、車両周辺の障害物が検出されたときの検出報知は、スピーカ9からの音声で行われる。   As shown in FIG. 1, the vehicle periphery monitoring device 1 includes a monitor 8 and a speaker 9. The monitor 8 receives image data from the navigation control unit 2 and displays image guidance for backward parking assistance and the like. In addition, voice data is sent from the navigation control unit 2 to the speaker 9 to provide voice guidance for backward parking assistance and the like. In the present embodiment, detection notification when an obstacle around the vehicle is detected is performed by sound from the speaker 9.

図2は、ナビゲーション制御ユニット2の構成を示すブロック図である。図2に示すように、ナビゲーション制御ユニット2は、カメラ4から画像を取得する画像取得部10を備えている。また、ナビゲーション制御ユニット2は、シフトギアスイッチ5や舵角センサ6や速度センサ7から、シフトギア情報や舵角情報や速度情報を取得する情報取得部11を備えている。そして、ナビゲーション制御ユニット2は、シフトギア情報に基づいて、複数のカメラ4のカメラ画像から障害物検出用のカメラ画像を選択する画像選択部12を備えている。例えば、シフトギア位置が「R(後退)」のときには、後方カメラ4のカメラ画像が選択される。   FIG. 2 is a block diagram showing the configuration of the navigation control unit 2. As shown in FIG. 2, the navigation control unit 2 includes an image acquisition unit 10 that acquires an image from the camera 4. The navigation control unit 2 also includes an information acquisition unit 11 that acquires shift gear information, steering angle information, and speed information from the shift gear switch 5, the steering angle sensor 6, and the speed sensor 7. The navigation control unit 2 includes an image selection unit 12 that selects a camera image for obstacle detection from the camera images of the plurality of cameras 4 based on the shift gear information. For example, when the shift gear position is “R (reverse)”, the camera image of the rear camera 4 is selected.

また、図2に示すように、ナビゲーション制御ユニット2は、車両周辺の障害物を検出するための検出領域を設定する検出領域設定部13を備えている。このナビゲーション制御ユニット2は、検出領域用データベース14を備えており、検出領域用データベース14には、カメラ画像中に検出領域を設定するための検出領域設定データが記憶されている。この検出領域設定データは、ステアリングの舵角情報(例えば、0度、60度、120度・・・)と検出領域設定データに基づいて、車両からの距離に応じて大きさの異なる検出領域を、カメラ画像中の車両の予想進路上に配置するためのデータである。なお、カメラ4の設置条件情報には、カメラ4の仕様条件(例えば、画角、解像度など)も含まれる。   As shown in FIG. 2, the navigation control unit 2 includes a detection area setting unit 13 that sets a detection area for detecting an obstacle around the vehicle. The navigation control unit 2 includes a detection area database 14, and the detection area database 14 stores detection area setting data for setting a detection area in a camera image. This detection area setting data includes detection areas having different sizes according to the distance from the vehicle based on steering angle information (for example, 0 degrees, 60 degrees, 120 degrees,...) And detection area setting data. This is data for arranging on the expected course of the vehicle in the camera image. Note that the installation condition information of the camera 4 includes specification conditions of the camera 4 (for example, angle of view, resolution, etc.).

例えば、検出領域設定データは、車両の予想進路や車両からの距離ごとの検出領域の位置(例えば、四角いフレームの角部の座標)と大きさ(例えば、四角いフレームの縦と横の長さ)のデータで構成され、製品出荷時等に予め検出領域用データベース14に記憶されている。検出領域の位置は、ステアリングの舵角に応じて左右方向にずらした位置に配置される。また、検出領域の大きさは、車両からの距離が遠い障害物を検出するための検出領域ほど小さくなるように設定されている。具体的には、カメラ画像中に車両の予想進路に沿った仮想三次元ゾーンを想定し、その仮想三次元ゾーンを車両からの距離(例えば0.5m、1.5m、3.0m)ごとに切断したときに形成される3つの仮想断面エリアが、検出領域として設定される(図7〜図9参照)。図では、車両からの距離が0.5mの検出領域が破線で示されており、1.5mの検出領域が一点鎖線で示されており、3.0mの検出領域が二点鎖線で示されている。   For example, the detection area setting data includes the position of the detection area (for example, the coordinates of the corners of the square frame) and the size (for example, the vertical and horizontal lengths of the square frame) for each predicted course of the vehicle and the distance from the vehicle. And is stored in advance in the detection area database 14 at the time of product shipment. The position of the detection area is arranged at a position shifted in the left-right direction according to the steering angle of the steering. In addition, the size of the detection area is set to be smaller as the detection area is for detecting an obstacle that is far from the vehicle. Specifically, a virtual three-dimensional zone along the expected course of the vehicle is assumed in the camera image, and the virtual three-dimensional zone is determined for each distance (for example, 0.5 m, 1.5 m, 3.0 m) from the vehicle. Three virtual cross-sectional areas formed when cutting are set as detection areas (see FIGS. 7 to 9). In the figure, a detection area with a distance of 0.5 m from the vehicle is indicated by a broken line, a detection area of 1.5 m is indicated by a one-dot chain line, and a detection area of 3.0 m is indicated by a two-dot chain line. ing.

ナビゲーション制御ユニット2は、障害物の検出報知を行うか否かを決定する報知決定部15を備えている。報知決定部15は、後述するパターンマッチングによって障害物が検出されたときに、検出領域の車両からの距離に基づいて検出報知を行うか否かを決定する。具体的には、検出領域の車両からの距離が2.0m以下である場合には検出報知が行われ、検出領域の車両からの距離が2.0mより大きい場合には検出報知が行われない。つまり、車両からの距離が0.5mと1.5mの場合には検出報知が行われ、車両からの距離が3.0mの場合には検出報知が行われない。この場合、車両からの距離2.0mが、検出報知を行うか否かの基準となるしきい距離であるともいえる。   The navigation control unit 2 includes a notification determining unit 15 that determines whether or not to perform obstacle detection notification. The notification determination unit 15 determines whether to perform detection notification based on the distance from the vehicle in the detection area when an obstacle is detected by pattern matching described later. Specifically, the detection notification is performed when the distance from the vehicle in the detection area is 2.0 m or less, and the detection notification is not performed when the distance from the vehicle in the detection area is greater than 2.0 m. . That is, detection notification is performed when the distance from the vehicle is 0.5 m and 1.5 m, and detection notification is not performed when the distance from the vehicle is 3.0 m. In this case, it can be said that the distance of 2.0 m from the vehicle is a threshold distance that serves as a reference for whether or not detection notification is performed.

報知決定部15は、このしきい距離を車両の速度情報に基づいて変更するしきい距離変更部16を備えている。このしきい距離変更部16は、例えば、車両の走行速度が時速10km以下である場合には、しきい距離を2.0mに設定し、車両の走行速度が時速10km以上である場合には、しきい距離を5.0mに設定する。これにより、車両の走行速度が時速10km以下である場合には、車両から0.5mと1.5mの位置にある障害物の検出報知が行われ、車両から3.0mの位置にある障害物の検出報知は行われない。一方、車両の走行速度が時速10km以上である場合には、車両から3.0mの位置にある障害物であっても検出報知が行われる。   The notification determining unit 15 includes a threshold distance changing unit 16 that changes the threshold distance based on vehicle speed information. For example, the threshold distance changing unit 16 sets the threshold distance to 2.0 m when the vehicle traveling speed is 10 km / h or less, and when the vehicle traveling speed is 10 km / h or more, Set the threshold distance to 5.0 m. As a result, when the traveling speed of the vehicle is 10 km / h or less, the obstacle is detected and notified at the positions of 0.5 m and 1.5 m from the vehicle, and the obstacle at the position of 3.0 m from the vehicle. No detection notification is performed. On the other hand, when the traveling speed of the vehicle is 10 km / h or more, even if the obstacle is located at a position of 3.0 m from the vehicle, the detection notification is performed.

図3は、画像処理制御ユニット3の構成を示すブロック図である。図3に示すように、画像処理制御ユニット3は、カメラ4から画像を取得する画像取得部17と、検出領域内の障害物を検出する障害物検出部18を備えている。障害物検出部18は、障害物のモデルパターンのデータを記憶したパターンマッチング用データベース19と、検出領域内で検出されたパターンと障害物のモデルパターンが一致するか否かを判断するパターンマッチング処理を行うパターンマッチング部20を備えている。   FIG. 3 is a block diagram showing a configuration of the image processing control unit 3. As shown in FIG. 3, the image processing control unit 3 includes an image acquisition unit 17 that acquires an image from the camera 4 and an obstacle detection unit 18 that detects an obstacle in the detection region. The obstacle detection unit 18 is a pattern matching database 19 that stores data of an obstacle model pattern, and a pattern matching process that determines whether the pattern detected in the detection region matches the obstacle model pattern. A pattern matching unit 20 is provided.

例えば、このパターンマッチング部20では、CNN(Convolutional Neural Network)などの機械学習法を用いたパターンマッチング処理が行われる。そして、障害物のモデルパターンには、歩行者(大人の歩行者、子供の歩行者など)、車両(自動車、オートバイ、自転車など)などのモデルパターンが含まれる。このような障害物のモデルパターンのデータは、予め機械学習によってパターンマッチング用データベース19に記憶されている。なお、パターンマッチング処理の内容については後述する。   For example, the pattern matching unit 20 performs pattern matching processing using a machine learning method such as CNN (Convolutional Neural Network). The obstacle model patterns include model patterns of pedestrians (adult pedestrians, child pedestrians, etc.), vehicles (automobiles, motorcycles, bicycles, etc.). Such obstacle model pattern data is previously stored in the pattern matching database 19 by machine learning. The contents of the pattern matching process will be described later.

以上のように構成された車両周辺監視装置1の後退駐車支援機能について、図4〜図10を用いて説明する。図4は、後退駐車をするときに車両後方の歩行者をカメラ4で撮影する様子を示す説明図であり、図5は、そのときに撮影されるカメラ画像の説明図である。   The backward parking assist function of the vehicle periphery monitoring device 1 configured as described above will be described with reference to FIGS. FIG. 4 is an explanatory diagram showing a situation where a camera 4 captures a pedestrian behind the vehicle when parked backward, and FIG. 5 is an explanatory diagram of a camera image captured at that time.

図4に示すように、この例では、車両は後方の駐車スペースに向けて直進しており、車両からの距離0.5m、1.5m、3.0mに歩行者が存在している。この場合、図5に示すように、後方カメラ4のカメラ画像には0.5m、1.5m、3.0mの障害物の検出領域が設けられ、3人の歩行者がそれぞれの検出領域内に撮影される。   As shown in FIG. 4, in this example, the vehicle goes straight toward the parking space behind, and pedestrians exist at distances of 0.5 m, 1.5 m, and 3.0 m from the vehicle. In this case, as shown in FIG. 5, the camera image of the rear camera 4 is provided with obstacle detection areas of 0.5 m, 1.5 m, and 3.0 m, and three pedestrians are located in the respective detection areas. Taken on.

図6(a)〜(c)は、パターンマッチング処理を行う様子の説明図である。図6(a)は、車両からの距離0.5mの障害物のパターンマッチングの説明図である。この場合、まず、距離0.5mの検出領域(図5の破線の四角フレーム)がパターンマッチング用のサイズ(所定サイズ)に縮小(または拡大)される。そして、縮小(または拡大)された検出領域内のパターンと、パターンマッチング用データベース19のモデルパターンとが一致するか否かが判断される。この例では、図で斜線を用いて示すように、カメラ画像における左側の歩行者(0.5mの位置の歩行者)のパターンが、パターンマッチング用のモデルパターンと一致する。このようにして、0.5mの位置の歩行者が障害物として検出される。   FIGS. 6A to 6C are explanatory diagrams showing how pattern matching processing is performed. FIG. 6A is an explanatory diagram of pattern matching of an obstacle with a distance of 0.5 m from the vehicle. In this case, first, a detection area (dashed square frame in FIG. 5) having a distance of 0.5 m is reduced (or enlarged) to a pattern matching size (predetermined size). Then, it is determined whether or not the reduced (or enlarged) pattern in the detection area matches the model pattern in the pattern matching database 19. In this example, as shown with diagonal lines in the figure, the pattern of the left pedestrian (pedestrian at a position of 0.5 m) in the camera image matches the model pattern for pattern matching. In this way, a pedestrian at a position of 0.5 m is detected as an obstacle.

図6(b)は、車両からの距離1.5mの障害物のパターンマッチングの説明図である。この場合、距離1.5mの検出領域(図5の一点鎖線の四角フレーム)がパターンマッチング用のサイズ(所定サイズ)に縮小(または拡大)される。そして、縮小(または拡大)された検出領域内のパターンと、パターンマッチング用データベース19のモデルパターンとが一致するか否かが判断される。この例では、図で斜線を用いて示すように、カメラ画像における中央の歩行者(1.5mの位置の歩行者)のパターンが、パターンマッチング用のモデルパターンと一致する。このようにして、1.5mの位置の歩行者が障害物として検出される。   FIG. 6B is an explanatory diagram of pattern matching of an obstacle with a distance of 1.5 m from the vehicle. In this case, a detection area (a dashed-dotted square frame in FIG. 5) having a distance of 1.5 m is reduced (or enlarged) to a pattern matching size (predetermined size). Then, it is determined whether or not the reduced (or enlarged) pattern in the detection area matches the model pattern in the pattern matching database 19. In this example, the pattern of the central pedestrian (pedestrian at a position of 1.5 m) in the camera image matches the model pattern for pattern matching, as indicated by using diagonal lines in the figure. In this way, a pedestrian at a position of 1.5 m is detected as an obstacle.

図6(c)は、車両からの距離3.0mの障害物のパターンマッチングの説明図である。この場合、距離3.0mの検出領域(図5の二点鎖線の四角フレーム)がパターンマッチング用のサイズ(所定サイズ)に縮小(または拡大)される。そして、縮小(または拡大)された検出領域内のパターンと、パターンマッチング用データベース19のモデルパターンとが一致するか否かが判断される。この例では、図で斜線を用いて示すように、カメラ画像における右側の歩行者(3.0mの位置の歩行者)のパターンが、パターンマッチング用のモデルパターンと一致する。このようにして、3.0mの位置の歩行者が障害物として検出される。   FIG. 6C is an explanatory diagram of pattern matching of an obstacle with a distance of 3.0 m from the vehicle. In this case, the detection area (distance chain square frame in FIG. 5) having a distance of 3.0 m is reduced (or enlarged) to a pattern matching size (predetermined size). Then, it is determined whether or not the reduced (or enlarged) pattern in the detection area matches the model pattern in the pattern matching database 19. In this example, as shown with diagonal lines in the figure, the pattern of the right pedestrian (pedestrian at a position of 3.0 m) in the camera image matches the model pattern for pattern matching. In this way, a pedestrian at a position of 3.0 m is detected as an obstacle.

図7〜図9は、ステアリングを切ったときに検出領域の配置が変化する様子を示した図である。図7は、図5と同様、直進で後退駐車をするときの検出領域の配置を示す説明図である。図7に示すように、ステアリングを直進にした場合には、直進しながら後退するときの予想進路に沿った仮想三次元ゾーンを切断した仮想断面エリアが、検出領域として設定される。   7 to 9 are diagrams showing how the arrangement of the detection regions changes when the steering is turned off. FIG. 7 is an explanatory view showing the arrangement of the detection areas when the vehicle is parked in a straight line as in FIG. As shown in FIG. 7, when the steering is made straight, a virtual cross-sectional area obtained by cutting a virtual three-dimensional zone along an expected course when going backward while going straight is set as a detection region.

図7の例では、カメラ画面の中央右寄りに歩行者(車両からの距離3.0m)が写されている。この歩行者は、距離3.0mの検出領域内に含まれており、パターンマッチング処理でモデルパターンと一致するため、距離3.0mの障害物として検出される。なお、この歩行者は、距離0.5mや1.5mの検出領域内にも含まれているが、パターンマッチング処理でモデルパターンとの大きさが一致しないため、距離0.5mや1.5mの障害物としては検出されない。   In the example of FIG. 7, a pedestrian (a distance of 3.0 m from the vehicle) is shown on the right side of the center of the camera screen. This pedestrian is included in a detection area with a distance of 3.0 m and is detected as an obstacle with a distance of 3.0 m because it matches the model pattern in the pattern matching process. Although this pedestrian is also included in the detection area at a distance of 0.5 m or 1.5 m, the size of the model pattern does not match in the pattern matching process, so the distance of 0.5 m or 1.5 m It is not detected as an obstacle.

図8は、ステアリングを左にきったときの検出領域の配置を示す説明図である。図8に示すように、ステアリングを左にきった場合には、右に曲がりながら後退する予想進路に沿った仮想三次元ゾーンを切断した仮想断面エリアが、検出領域として設定される。   FIG. 8 is an explanatory diagram showing the arrangement of detection areas when the steering is turned to the left. As shown in FIG. 8, when the steering is turned to the left, a virtual cross-sectional area obtained by cutting a virtual three-dimensional zone along an expected course that turns backward while turning right is set as a detection region.

図8の例でも、図7と同じ位置に歩行者(車両からの距離3.0m)が写されている。この歩行者は、距離3.0mの検出領域内に含まれており、パターンマッチング処理でモデルパターンと一致するため、距離3.0mの障害物として検出される。図8では、右に曲がりながら後退する予想進路上に検出領域が配置されるので、図7に比べて、予想進路上の歩行者を検出領域の中央で検出することができる。なお、この歩行者は、距離0.5mや1.5mの検出領域内にも含まれているが、パターンマッチング処理でモデルパターンとの大きさが一致しないため、距離0.5mや1.5mの障害物としては検出されない。   In the example of FIG. 8 as well, a pedestrian (a distance of 3.0 m from the vehicle) is shown at the same position as in FIG. This pedestrian is included in a detection area with a distance of 3.0 m and is detected as an obstacle with a distance of 3.0 m because it matches the model pattern in the pattern matching process. In FIG. 8, since the detection area is arranged on the expected course that turns backward while turning to the right, a pedestrian on the expected course can be detected at the center of the detection area as compared with FIG. Although this pedestrian is also included in the detection area at a distance of 0.5 m or 1.5 m, the size of the model pattern does not match in the pattern matching process, so the distance of 0.5 m or 1.5 m It is not detected as an obstacle.

図9は、ステアリングを右にきったときの検出領域の配置を示す説明図である。図9に示すように、ステアリングを右にきった場合には、左に曲がりながら後退する予想進路に沿った仮想三次元ゾーンを切断した仮想断面エリアが、検出領域として設定される。   FIG. 9 is an explanatory diagram showing the arrangement of detection areas when the steering is turned to the right. As shown in FIG. 9, when the steering is turned to the right, a virtual cross-sectional area obtained by cutting a virtual three-dimensional zone along an expected course turning backward while turning left is set as a detection region.

図9の例でも、図7と同じ位置に歩行者(車両からの距離3.0m)が写されている。この場合、左に曲がりながら後退する予想進路上に検出領域が配置されるので、この歩行者は、距離3.0mの検出領域内に含まれず、距離3.0mの障害物として検出されない。また、この歩行者は、距離0.5mや1.5mの検出領域内には含まれているが、パターンマッチング処理でモデルパターンとの大きさが一致しないため、距離0.5mや1.5mの障害物としても検出されない。   Also in the example of FIG. 9, a pedestrian (a distance of 3.0 m from the vehicle) is shown at the same position as in FIG. In this case, since the detection area is arranged on the expected course of turning backward while turning left, the pedestrian is not included in the detection area of the distance of 3.0 m and is not detected as an obstacle of the distance of 3.0 m. In addition, although this pedestrian is included in a detection area with a distance of 0.5 m or 1.5 m, the size of the model pattern does not match in the pattern matching process, so the distance of 0.5 m or 1.5 m It is not detected as an obstacle.

図10は、車両周辺監視装置1の後退駐車支援機能の動作の流れを示すフロー図である。図10に示すように、後退駐車支援機能をオンにすると、ナビゲーション制御ユニット2は、シフトギアスイッチ5から車両のシフトギア情報を取得する(S1)。そして、シフトギアの位置が「R(後退)」であるか否かの判断を行う(S2)。   FIG. 10 is a flowchart showing a flow of operations of the reverse parking support function of the vehicle periphery monitoring device 1. As shown in FIG. 10, when the reverse parking support function is turned on, the navigation control unit 2 acquires vehicle shift gear information from the shift gear switch 5 (S1). Then, it is determined whether or not the position of the shift gear is “R (reverse)” (S2).

シフトギアの位置が「R」であった場合、ナビゲーション制御ユニット2は、車両の後方カメラ4のカメラ画像を取得する(S3)。また、ナビゲーション制御ユニット2は、舵角センサ6からステアリングの舵角情報を取得して(S4)、車両の予想進路を決定する(S5)。そして、ナビゲーション制御ユニット2は、取得した舵角情報と検出領域用データベース14から読み出した検出領域設定データに基づいて、カメラ画像中の車両の予想進路上に3つの検出領域を設定する(S6)。   When the position of the shift gear is “R”, the navigation control unit 2 acquires a camera image of the rear camera 4 of the vehicle (S3). Further, the navigation control unit 2 acquires the steering angle information of the steering from the steering angle sensor 6 (S4), and determines the expected course of the vehicle (S5). Then, the navigation control unit 2 sets three detection areas on the predicted course of the vehicle in the camera image based on the acquired steering angle information and the detection area setting data read from the detection area database 14 (S6). .

そして、画像処理制御ユニット3は、この3つの検出領域の各々についてパターンマッチング処理を行い(S7)、検出領域内に障害物があるか否かを判断する(S8)。ある検出領域内で障害物が検出された場合には、その検出領域の車両からの距離がしきい距離以下であるか否かを判断する(S9)。障害物が検出された検出領域の車両からの距離がしきい距離以下である場合には、ドライバーへの音声による報知がスピーカ9から行われる(S10)。   Then, the image processing control unit 3 performs pattern matching processing for each of the three detection areas (S7), and determines whether there is an obstacle in the detection area (S8). When an obstacle is detected in a certain detection area, it is determined whether or not the distance from the vehicle in the detection area is equal to or less than a threshold distance (S9). When the distance from the vehicle in the detection area where the obstacle is detected is equal to or less than the threshold distance, a voice notification to the driver is given from the speaker 9 (S10).

このような本実施の形態の車両周辺監視装置1によれば、ドライバーに不要な報知を減らして報知の効果を高めることができる。また、車両の走行中であっても障害物の検出や報知が可能である。   According to the vehicle periphery monitoring apparatus 1 of the present embodiment as described above, notifications unnecessary for the driver can be reduced and the notification effect can be enhanced. Further, it is possible to detect and notify an obstacle even while the vehicle is traveling.

すなわち、本実施の形態では、車両からの距離ごと(例えば0.5m、1.5m、3.0m)に三つの検出領域が設定され、各検出領域について障害物の検出が行われる。そして、障害物が検出された検出領域の車両からの距離に基づいて検出報知を行うか否かが決定される。例えば、車両の近くの障害物(例えば、車両から0.5mと1.5mの位置にある障害物)の検出報知が行われ、車両から遠く離れた障害物(例えば、車両から3.0mの位置にある障害物)の検出報知は行われない。これにより、ドライバーに不要な報知を減らすことができる。また、従来のように車両の停車中に基準画像を撮影する必要がないので、車両が走行中であっても障害物の検出や報知が可能である。   That is, in the present embodiment, three detection areas are set for each distance from the vehicle (for example, 0.5 m, 1.5 m, and 3.0 m), and obstacle detection is performed for each detection area. Then, it is determined whether or not to perform the detection notification based on the distance from the vehicle in the detection area where the obstacle is detected. For example, an obstacle near the vehicle (for example, an obstacle at a position of 0.5 m and 1.5 m from the vehicle) is detected and notified, and an obstacle far from the vehicle (for example, 3.0 m from the vehicle) Detection notification of the obstacle at the position is not performed. Thereby, notifications unnecessary for the driver can be reduced. Further, since it is not necessary to take a reference image while the vehicle is stopped as in the prior art, it is possible to detect and notify an obstacle even when the vehicle is traveling.

この場合、車両の予想進路に沿った仮想三次元ゾーンを車両からの距離ごとに切断した仮想断面エリアが検出領域として設定される。このように三次元的な要素を考慮することにより、検出領域が適切に設定される。例えば、従来のように平面的に(二次元的に)検出領域を設定した場合には、縦長の障害物の一部のみ(例えば歩行者の足のみ)しか検出領域に入らず、障害物を誤検出する(歩行者以外の障害物として誤って検出する)ことがある。それに対して、本実施の形態では三次元的な要素を考慮して検出領域が適切に設定されているので、縦長の障害物であっても全体が検出領域に入り、障害物の誤検出を少なくすることができる。また、この場合、所定のしきい距離(例えば2m)より近くの障害物については検出報知が行われ、しきい距離より遠くの障害物については検出報知が行われない。これにより、ドライバーに不要な報知を減らすことができる。   In this case, a virtual cross-sectional area obtained by cutting a virtual three-dimensional zone along the expected course of the vehicle for each distance from the vehicle is set as a detection region. In this way, the detection region is appropriately set by considering the three-dimensional element. For example, when a detection area is set in a two-dimensional manner as in the past, only a part of a vertically long obstacle (for example, only a pedestrian's foot) enters the detection area. It may be erroneously detected (detected as an obstacle other than a pedestrian). On the other hand, in the present embodiment, the detection area is appropriately set in consideration of the three-dimensional elements, so even if the obstacle is a vertically long obstacle, the whole enters the detection area, and erroneous detection of the obstacle is performed. Can be reduced. Further, in this case, detection notification is performed for an obstacle near a predetermined threshold distance (for example, 2 m), and detection notification is not performed for an obstacle far from the threshold distance. Thereby, notifications unnecessary for the driver can be reduced.

また、本実施の形態では、パターンマッチング処理を行うことにより、検出された障害物が何であるか(例えば、人であるのか車両であるのか等)について判定することができる。そして、そのパターンマッチング処理の結果に応じて、適切に障害物の検出報知が行われる。例えば、パターンマッチング処理の結果、検出した障害物が「子供」の歩行者である場合には、危険度が高いので検出報知が行われ、検出した障害物が「大人」の歩行者である場合には、比較的危険度が低いので検出報知が行われない。   In the present embodiment, it is possible to determine what the detected obstacle is (for example, whether it is a person or a vehicle) by performing the pattern matching process. And according to the result of the pattern matching process, the obstacle detection notification is appropriately performed. For example, if the detected obstacle is a “child” pedestrian as a result of the pattern matching process, the detection is performed because the danger level is high, and the detected obstacle is an “adult” pedestrian. Is not detected because the degree of danger is relatively low.

例えば、従来の物体検出装置では、検出領域内に植込み等の木々の枝や影などが入った場合にも、障害物として誤検出する(本来は障害物でないものを障害物であるとして誤って検出する)ことがある。それに対して、本実施の形態では、パターンマッチング処理を行って障害物の検出を行うので、障害物のモデルパターンと一致しないもの(植込み等の木々の枝や影など)は障害物として検出されず、障害物の誤検出を少なくすることができる。   For example, in a conventional object detection device, even when a tree branch or shadow of an implanted plant enters the detection area, it is erroneously detected as an obstacle (a thing that is not an obstacle is mistakenly regarded as an obstacle) May be detected). On the other hand, in the present embodiment, pattern matching processing is performed to detect obstacles, so that objects that do not match the obstacle model pattern (such as branches and shadows of trees or the like) are detected as obstacles. Therefore, it is possible to reduce false detection of obstacles.

また、従来の物体検出装置では、本来障害物として検出されるべきものであっても、その障害物が基準画像に入っていると、比較画像との差分処理で背景として扱われ、障害物として検出されないことがある。それに対して、本実施の形態では、パターンマッチング処理を行って障害物の検出を行うので、本来検出されるべき障害物を適切に検出することができる。   In addition, in the conventional object detection device, even if it should be detected as an obstacle, if the obstacle is included in the reference image, it is treated as a background in the difference processing with the comparison image, May not be detected. On the other hand, in this embodiment, since the obstacle is detected by performing the pattern matching process, the obstacle that should be detected can be appropriately detected.

また、本実施の形態では、シフトギア操作に応じて、障害物の検出に用いるカメラ画像が適切に切り替えられる。例えば、シフトギアを「R」にした場合には、車両後方のカメラ画像に切り替えられ、車両後方の進路上の障害物を検出することができる。また、シフトギアを「D」にした場合には、車両前方のカメラ画像に切り替えられ、車両前方の進路上の障害物を検出することができる。   Moreover, in this Embodiment, the camera image used for an obstacle detection is switched appropriately according to shift gear operation. For example, when the shift gear is set to “R”, the camera image is switched to the rear of the vehicle, and an obstacle on the path behind the vehicle can be detected. Further, when the shift gear is set to “D”, the camera image is switched to the front of the vehicle, and an obstacle on the course ahead of the vehicle can be detected.

また、本実施の形態では、車両の走行速度に応じて、障害物の検出報知を行う基準が適切に変更される。例えば、車両の走行速度が低速(例えば時速10km以下)である場合には、車両の近くの障害物(例えば、車両から0.5mと1.5mの位置にある障害物)の検出報知が行われ、車両から遠く離れた障害物(例えば、車両から3.0mの位置にある障害物)の検出報知は危険度が低いため行われない。また、車両の走行速度が高速(例えば時速10km以上)である場合には、車両から遠く離れた障害物であっても危険度が高いため検出報知が行われる。   Moreover, in this Embodiment, the reference | standard which performs detection notification of an obstruction is changed appropriately according to the running speed of a vehicle. For example, when the traveling speed of the vehicle is low (for example, 10 km / h or less), the detection and notification of an obstacle near the vehicle (for example, an obstacle at positions 0.5 m and 1.5 m from the vehicle) is performed. However, detection and notification of an obstacle far from the vehicle (for example, an obstacle at a position of 3.0 m from the vehicle) is not performed because the risk is low. Further, when the traveling speed of the vehicle is high (for example, 10 km / h or more), even if the obstacle is far away from the vehicle, the danger is high, and thus the detection notification is performed.

以上、本発明の実施の形態を例示により説明したが、本発明の範囲はこれらに限定されるものではなく、請求項に記載された範囲内において目的に応じて変更・変形することが可能である。   The embodiments of the present invention have been described above by way of example, but the scope of the present invention is not limited to these embodiments, and can be changed or modified according to the purpose within the scope of the claims. is there.

以上の説明では、画像選択部12が、シフトギア情報に基づいて車両の前方と後方のカメラ画像を選択する例について説明したが、本発明の範囲はこれに限定されるものではない。例えば、画像選択部12は、車両のウィンカー情報に基づいて、障害物の検出に用いるカメラ画像として車両側方のカメラ画像を選択してもよい。   In the above description, the example in which the image selection unit 12 selects the front and rear camera images of the vehicle based on the shift gear information has been described, but the scope of the present invention is not limited to this. For example, the image selection unit 12 may select a camera image on the side of the vehicle as a camera image used for detecting an obstacle based on the blinker information of the vehicle.

また、以上の説明では、検出領域設定部13が、舵角情報に基づいて予想進路上に検出領域を配置する例について説明したが、本発明の範囲はこれに限定されるものではない。例えば、検出領域設定部13は、車両のウィンカー情報に基づいて、予想進路上に検出領域を配置してもよい。   Moreover, although the detection area setting part 13 demonstrated the example which arrange | positions a detection area on an estimated course based on steering angle information in the above description, the scope of the present invention is not limited to this. For example, the detection area setting unit 13 may arrange the detection area on the expected course based on the blinker information of the vehicle.

また、以上の説明では、障害物の検出報知をスピーカ9を用いて音声で行う例について説明したが、本発明の範囲はこれに限定されるものではない。例えば、スピーカ9からの音声だけでなく、モニタ8の画像に障害物の検出位置を強調表示することによって、障害物の検出報知を行ってもよい。   Moreover, although the above description demonstrated the example which performs the detection notification of an obstruction with the audio | voice using the speaker 9, the scope of the present invention is not limited to this. For example, the obstacle detection notification may be performed by highlighting the obstacle detection position on the image of the monitor 8 as well as the sound from the speaker 9.

以上のように、本発明にかかる車両周辺監視装置は、ドライバーに不要な報知を減らして報知の効果を高めることができるという効果を有し、車両の後退駐車支援装置等に用いられ、有用である。   As described above, the vehicle periphery monitoring device according to the present invention has an effect that the notification effect unnecessary for the driver can be reduced and the effect of the notification can be enhanced. is there.

本実施の形態における車両周辺監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring apparatus in this Embodiment. ナビゲーション制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of a navigation control unit. 画像処理制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of an image processing control unit. 後退駐車をするときに車両後方の歩行者を撮影する様子を示す説明図である。It is explanatory drawing which shows a mode that a pedestrian behind a vehicle is image | photographed when carrying out reverse parking. 後退駐車をするときのカメラ画像の説明図である。It is explanatory drawing of the camera image when carrying out reverse parking. (a)車両からの距離0.5mの障害物用の検出領域を用いたパターンマッチングの説明図である。 (b)車両からの距離1.5mの障害物用の検出領域を用いたパターンマッチングの説明図である。 (c)車両からの距離3.0mの障害物用の検出領域を用いたパターンマッチングの説明図である。(A) It is explanatory drawing of the pattern matching using the detection area | region for obstacles of the distance of 0.5 m from a vehicle. (B) It is explanatory drawing of the pattern matching using the detection area | region for obstacles of distance 1.5m from a vehicle. (C) It is explanatory drawing of the pattern matching using the detection area | region for obstacles of distance 3.0m from a vehicle. 直進で後退駐車をするときの検出領域の配置を示す説明図である。It is explanatory drawing which shows arrangement | positioning of the detection area | region when carrying out receding parking in a straight line. ステアリングを左にきって後退駐車をするときの検出領域の配置を示す説明図である。It is explanatory drawing which shows arrangement | positioning of a detection area | region when turning a steering to the left and carrying out reverse parking. ステアリングを右にきって後退駐車をするときの検出領域の配置を示す説明図である。It is explanatory drawing which shows arrangement | positioning of the detection area | region when turning a steering to the right and carrying out reverse parking. 車両周辺監視装置の動作の流れを説明するためのフロー図である。It is a flowchart for demonstrating the flow of operation | movement of a vehicle periphery monitoring apparatus.

符号の説明Explanation of symbols

1 車両周辺監視装置
2 ナビゲーション制御ユニット
3 画像処理制御ユニット
4 カメラ
5 シフトギアスイッチ
6 舵角センサ
7 速度センサ
8 モニタ
9 スピーカ
10 画像取得部
11 情報取得部
12 画像選択部
13 検出領域設定部
14 検出領域用データベース
15 報知決定部
16 しきい距離変更部
17 画像取得部
18 障害物検出部
19 パターンマッチング用データベース
20 パターンマッチング部
DESCRIPTION OF SYMBOLS 1 Vehicle periphery monitoring apparatus 2 Navigation control unit 3 Image processing control unit 4 Camera 5 Shift gear switch 6 Steering angle sensor 7 Speed sensor 8 Monitor 9 Speaker 10 Image acquisition part 11 Information acquisition part 12 Image selection part 13 Detection area setting part 14 Detection area Database 15 Notification determining unit 16 Threshold distance changing unit 17 Image acquiring unit 18 Obstacle detecting unit 19 Pattern matching database 20 Pattern matching unit

Claims (7)

車両に搭載されたカメラで撮影したカメラ画像を用いて車両周辺の障害物を検出する車両周辺監視装置であって、
前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定する検出領域設定手段と、
前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出する障害物検出手段と、
前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定する報知決定手段と、
を備えたことを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that detects obstacles around a vehicle using a camera image taken by a camera mounted on the vehicle,
Based on the steering angle information of the steering of the vehicle and the installation condition information of the camera, a plurality of detection areas having different sizes according to the distance from the vehicle are set on the expected course of the vehicle in the camera image. Detection area setting means;
Obstacle detection means for performing an image process on each of the plurality of detection areas and detecting an obstacle in the detection area;
Notification determining means for determining whether to perform detection notification of the obstacle based on the distance from the vehicle of the detection area where the obstacle is detected;
A vehicle periphery monitoring device comprising:
前記検出領域設定手段は、
前記車両の予想進路に沿った仮想三次元ゾーンを前記車両からの距離に応じて切断して形成される仮想断面エリアを、前記検出領域として設定し、
前記報知決定手段は、
前記検出領域の前記車両からの距離が所定のしきい距離以下である場合には、前記障害物の検出報知を行い、前記検出領域の前記車両からの距離が前記しきい距離より大きい場合には、前記障害物の検出報知を行わないように決定することを特徴とする請求項1に記載の車両周辺監視装置。
The detection area setting means includes:
A virtual cross-sectional area formed by cutting a virtual three-dimensional zone along the predicted course of the vehicle according to the distance from the vehicle, is set as the detection region;
The notification determining means includes
When the distance of the detection area from the vehicle is equal to or less than a predetermined threshold distance, the obstacle is detected and notified, and when the distance of the detection area from the vehicle is larger than the threshold distance The vehicle periphery monitoring device according to claim 1, wherein the vehicle periphery monitoring device is determined not to perform detection and notification of the obstacle.
前記障害物検出手段は、
前記障害物のモデルパターンのデータを記憶した記憶手段と、
前記障害物が検出された検出領域の前記車両からの距離に応じてパターンサイズを調整して、前記検出領域内で検出されたパターンと前記障害物のモデルパターンが一致するか否を判断するパターンマッチング処理を行うパターンマッチング手段と、
を備え、
前記報知決定手段は、
前記パターンマッチング処理の結果に応じて、前記障害物の検出報知を行うか否かを決定することを特徴とする請求項1または請求項2に記載の車両周辺監視装置。
The obstacle detection means includes
Storage means for storing the model pattern data of the obstacle;
A pattern for adjusting whether the pattern detected in the detection area matches the model pattern of the obstacle by adjusting the pattern size according to the distance from the vehicle in the detection area where the obstacle is detected Pattern matching means for performing matching processing;
With
The notification determining means includes
The vehicle periphery monitoring apparatus according to claim 1 or 2, wherein whether or not to perform detection notification of the obstacle is determined according to a result of the pattern matching processing.
前記車両には、複数のカメラが搭載されており、
前記車両のシフトギア情報に基づいて、前記複数のカメラのカメラ画像から前記障害物の検出に用いるカメラ画像を選択する画像選択手段を備えたことを特徴とする請求項1〜請求項3のいずれかに記載の車両周辺監視装置。
The vehicle is equipped with a plurality of cameras,
The image selection means which selects the camera image used for the detection of the said obstruction from the camera image of the said several camera based on the shift gear information of the said vehicle, The any one of Claims 1-3 characterized by the above-mentioned. The vehicle periphery monitoring device described in 1.
前記報知決定手段は、前記車両の速度情報に基づいて前記しきい距離を変更するしきい距離変更手段を備えたことを特徴とする請求項2〜請求項4のいずれかに記載の車両周辺監視装置。   5. The vehicle periphery monitoring according to claim 2, wherein the notification determining unit includes a threshold distance changing unit that changes the threshold distance based on speed information of the vehicle. apparatus. 車両に搭載されたカメラで撮影したカメラ画像を用いて車両周辺の障害物を検出する車両周辺監視方法であって、
前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定し、
前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出し、
前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定することを特徴とする車両周辺監視方法。
A vehicle periphery monitoring method for detecting obstacles around a vehicle using a camera image taken by a camera mounted on the vehicle,
Based on the steering angle information of the vehicle steering and the installation condition information of the camera, a plurality of detection areas having different sizes according to the distance from the vehicle are set on the expected course of the vehicle in the camera image. ,
Image processing is performed on each of the plurality of detection areas to detect obstacles in the detection areas,
A vehicle periphery monitoring method, comprising: determining whether or not to perform the obstacle detection detection based on a distance from the vehicle in a detection area where the obstacle is detected.
車両に搭載されたカメラで撮影したカメラ画像を用いて車両周辺の障害物を検出する車両周辺監視プログラムであって、
コンピュータに、
前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定する検出領域設定処理と、
前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出する障害物検出処理と、
前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定する報知決定処理と、
を実行させることを特徴とする車両周辺監視プログラム。
A vehicle periphery monitoring program for detecting obstacles around a vehicle using a camera image taken by a camera mounted on the vehicle,
On the computer,
Based on the steering angle information of the steering of the vehicle and the installation condition information of the camera, a plurality of detection areas having different sizes according to the distance from the vehicle are set on the expected course of the vehicle in the camera image. Detection area setting process;
Obstacle detection processing for performing an image process on each of the plurality of detection areas to detect an obstacle in the detection area;
A notification determination process for determining whether to perform detection notification of the obstacle, based on a distance from the vehicle in a detection region where the obstacle is detected;
The vehicle periphery monitoring program characterized by performing this.
JP2007309797A 2007-11-30 2007-11-30 Vehicle surrounding-monitoring device Pending JP2009132259A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007309797A JP2009132259A (en) 2007-11-30 2007-11-30 Vehicle surrounding-monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007309797A JP2009132259A (en) 2007-11-30 2007-11-30 Vehicle surrounding-monitoring device

Publications (1)

Publication Number Publication Date
JP2009132259A true JP2009132259A (en) 2009-06-18

Family

ID=40864601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007309797A Pending JP2009132259A (en) 2007-11-30 2007-11-30 Vehicle surrounding-monitoring device

Country Status (1)

Country Link
JP (1) JP2009132259A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159186A (en) * 2010-02-03 2011-08-18 Clarion Co Ltd Drive support device and control method of drive support device
JP2011248640A (en) * 2010-05-27 2011-12-08 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2012123470A (en) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd Object detection device and object detection method
JP2013141876A (en) * 2012-01-10 2013-07-22 Denso Corp Vehicle periphery monitoring apparatus
JP2013191052A (en) * 2012-03-14 2013-09-26 Toyota Motor Corp Vehicle surroundings monitoring-device
JP2016051941A (en) * 2014-08-29 2016-04-11 株式会社富士通ゼネラル Moving object detection device
JP2016126405A (en) * 2014-12-26 2016-07-11 日本電気株式会社 Potential customer position information detection system, method, and program
JP2017092678A (en) * 2015-11-09 2017-05-25 修一 田山 Vehicle image display system
JP2018116450A (en) * 2017-01-18 2018-07-26 ダイハツ工業株式会社 Parking support device
JP2019142304A (en) * 2018-02-19 2019-08-29 株式会社明電舎 Fallen object detection device and fallen object detection method
JP2020013206A (en) * 2018-07-13 2020-01-23 日本ユニシス株式会社 Device for detecting two-wheeled vehicle from moving image/camera, program, and system
JP2021154795A (en) * 2020-03-25 2021-10-07 本田技研工業株式会社 Vehicle and control device therefor

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003267173A (en) * 2002-03-14 2003-09-25 Toyota Central Res & Dev Lab Inc Inter-vehicle distance alarm device
JP2006018751A (en) * 2004-07-05 2006-01-19 Nissan Motor Co Ltd Image processor for vehicle
JP2006137274A (en) * 2004-11-11 2006-06-01 Nissan Motor Co Ltd Operation assisting device, and driving assisting method
JP2006234485A (en) * 2005-02-23 2006-09-07 Japana Co Ltd Method and device for measuring rotation direction and amount of rotation in sphere traveling in space, and sphere suited for measuring rotation direction and amount of rotation when traveling in space
JP2007045336A (en) * 2005-08-10 2007-02-22 Sumitomo Electric Ind Ltd System and method for detecting obstacle
JP2007124097A (en) * 2005-10-26 2007-05-17 Auto Network Gijutsu Kenkyusho:Kk Apparatus for visually recognizing surrounding of vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003267173A (en) * 2002-03-14 2003-09-25 Toyota Central Res & Dev Lab Inc Inter-vehicle distance alarm device
JP2006018751A (en) * 2004-07-05 2006-01-19 Nissan Motor Co Ltd Image processor for vehicle
JP2006137274A (en) * 2004-11-11 2006-06-01 Nissan Motor Co Ltd Operation assisting device, and driving assisting method
JP2006234485A (en) * 2005-02-23 2006-09-07 Japana Co Ltd Method and device for measuring rotation direction and amount of rotation in sphere traveling in space, and sphere suited for measuring rotation direction and amount of rotation when traveling in space
JP2007045336A (en) * 2005-08-10 2007-02-22 Sumitomo Electric Ind Ltd System and method for detecting obstacle
JP2007124097A (en) * 2005-10-26 2007-05-17 Auto Network Gijutsu Kenkyusho:Kk Apparatus for visually recognizing surrounding of vehicle

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159186A (en) * 2010-02-03 2011-08-18 Clarion Co Ltd Drive support device and control method of drive support device
JP2011248640A (en) * 2010-05-27 2011-12-08 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2012123470A (en) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd Object detection device and object detection method
JP2013141876A (en) * 2012-01-10 2013-07-22 Denso Corp Vehicle periphery monitoring apparatus
JP2013191052A (en) * 2012-03-14 2013-09-26 Toyota Motor Corp Vehicle surroundings monitoring-device
JP2016051941A (en) * 2014-08-29 2016-04-11 株式会社富士通ゼネラル Moving object detection device
JP2016126405A (en) * 2014-12-26 2016-07-11 日本電気株式会社 Potential customer position information detection system, method, and program
JP2017092678A (en) * 2015-11-09 2017-05-25 修一 田山 Vehicle image display system
JP2018116450A (en) * 2017-01-18 2018-07-26 ダイハツ工業株式会社 Parking support device
JP2019142304A (en) * 2018-02-19 2019-08-29 株式会社明電舎 Fallen object detection device and fallen object detection method
JP2020013206A (en) * 2018-07-13 2020-01-23 日本ユニシス株式会社 Device for detecting two-wheeled vehicle from moving image/camera, program, and system
JP2021154795A (en) * 2020-03-25 2021-10-07 本田技研工業株式会社 Vehicle and control device therefor
JP7028905B2 (en) 2020-03-25 2022-03-02 本田技研工業株式会社 Vehicle and its control device

Similar Documents

Publication Publication Date Title
JP2009132259A (en) Vehicle surrounding-monitoring device
EP3493152A1 (en) Image processing device and surroundings recognition device
JP2014013524A (en) Vehicle notification device
JP5850066B2 (en) Object detection device
JP5898001B2 (en) Vehicle periphery monitoring device
JP6496982B2 (en) Cognitive support system
JP5511431B2 (en) Parking assistance device
JP6623906B2 (en) VEHICLE DISPLAY AND VEHICLE DISPLAY METHOD
JP2005309797A (en) Warning device for pedestrian
JP2008186170A (en) Driving support system and driving support method
JP2017102607A (en) Drive support device
JP2008293122A (en) Obstacle monitoring device
JP2009033743A (en) Method for recognition of object
JP2019186853A (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
JP2010191803A (en) Driving support device and method
JP2010040015A (en) Road shape detector for vehicle
JP2010072947A (en) Obstacle detection device
JP4957589B2 (en) Obstacle warning device, obstacle warning method, and computer program
JP6512044B2 (en) Behavior detection device
JP2008310690A (en) Recognition support device for vehicle
JP6087240B2 (en) Vehicle periphery monitoring device
JP2021056717A (en) Object detection device
JP2017182139A (en) Determination apparatus, determination method, and determination program
KR20170060449A (en) Method and system for alarming a capable of entrance using recognition of road sign
JP2008090655A (en) Driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120703