JP4539472B2 - Vehicle travel support device - Google Patents

Vehicle travel support device Download PDF

Info

Publication number
JP4539472B2
JP4539472B2 JP2005205476A JP2005205476A JP4539472B2 JP 4539472 B2 JP4539472 B2 JP 4539472B2 JP 2005205476 A JP2005205476 A JP 2005205476A JP 2005205476 A JP2005205476 A JP 2005205476A JP 4539472 B2 JP4539472 B2 JP 4539472B2
Authority
JP
Japan
Prior art keywords
pedestrian
vehicle
lower space
host vehicle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005205476A
Other languages
Japanese (ja)
Other versions
JP2007025947A (en
Inventor
正太 川又
治久 是
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2005205476A priority Critical patent/JP4539472B2/en
Publication of JP2007025947A publication Critical patent/JP2007025947A/en
Application granted granted Critical
Publication of JP4539472B2 publication Critical patent/JP4539472B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、車両用走行支援装置、より詳しくは、自車両の周囲の歩行者を検出する車両用走行支援装置に関し、運転者の認知・判断・操作を補助してトラブルの低減を図る技術分野に属する。   TECHNICAL FIELD The present invention relates to a vehicular driving support device, and more particularly to a vehicular driving support device that detects pedestrians around the host vehicle, and technical fields for assisting driver recognition, determination, and operation to reduce trouble. Belonging to.

従来、自車両の周囲に存在する車両や歩行者等の障害物を検出するため、例えばCCDカメラやCMOSカメラ等の撮像手段を備え、運転者の認知・判断・操作を補助して前記障害物との接触を回避するように運転者の車両操作を支援する車両用走行支援装置が知られている。例えば、特許文献1には、カメラで撮像した自車両の周囲の撮像データのうち、人の頭部から肩部及び肩部から腕部に相当する領域にある被撮像物を歩行者であると認識する技術が開示されている。また、特許文献2には、左右に並設された2つのカメラで自車両の周囲の同一空間を撮像し、被撮像物が接触を避けるべき車両や歩行者等の障害物であるか、又は路面上の白線や標識等の非障害物であるかを的確に判断する技術が開示されている。
特開2004−303219号公報 特開2004−86779号公報
Conventionally, in order to detect an obstacle such as a vehicle or a pedestrian existing around the host vehicle, the obstacle is provided with an imaging means such as a CCD camera or a CMOS camera to assist the driver's recognition, judgment and operation. 2. Description of the Related Art A vehicle travel support device that supports a driver's vehicle operation so as to avoid contact with the vehicle is known. For example, in Patent Literature 1, an object to be imaged in a region corresponding to a person's head to shoulder and a shoulder to arm is taken as a pedestrian among the imaging data around the subject vehicle captured by the camera. Recognizing technology is disclosed. Further, in Patent Document 2, the same space around the host vehicle is imaged with two cameras arranged side by side on the left and right, and the object to be imaged is an obstacle such as a vehicle or a pedestrian that should avoid contact, or A technique for accurately determining whether a non-obstacle such as a white line or a sign on the road surface is disclosed.
JP 2004-303219 A JP 2004-86779 A

しかし、従来の撮像手段は、例えばルームミラーの近傍等、自車両の比較的上部に設けられて、自車両の周囲の比較的上部空間を撮像するものであったため、撮像データの中に人が写っていても、その背景に立木や建物や車両等の多数の非障害物が一緒に写り込む結果、画像処理が複雑となり、撮像データの中から接触を回避すべき歩行者を抽出・特定するのに長い時間がかかる、あるいは失敗する、という問題があった。また、人の頭部から肩部を含む歩行者の上半身が撮像される結果、例えば人の脚部を含む歩行者の下半身が撮像される場合よりも、認識すべき形状・輪郭が複雑となり、この点からも、撮像データの中から接触を回避すべき歩行者を抽出・特定するのに長い時間がかかる、あるいは失敗する、という問題があった。   However, the conventional imaging means is provided in a relatively upper part of the host vehicle, for example, in the vicinity of the room mirror, and images a relatively upper space around the host vehicle. Even if it is visible, many non-obstacles such as trees, buildings, and vehicles are reflected in the background. As a result, image processing becomes complicated, and pedestrians that should avoid touching are extracted and specified from the captured data. It took a long time or failed. In addition, as a result of imaging the upper body of the pedestrian including the shoulder from the person's head, for example, the shape and contour to be recognized are more complex than when the lower body of the pedestrian including the leg of the person is imaged, Also from this point, there is a problem that it takes a long time or fails to extract / specify a pedestrian whose contact should be avoided from the imaging data.

本発明は、車両用走行支援装置における前記不具合に対処するもので、撮像手段による歩行者の抽出・特定を、確実に、精度よく、短時間で、行うことができるようにすることを課題とする。   An object of the present invention is to cope with the above-described problems in the vehicle travel support device, and to enable the extraction and identification of pedestrians by the imaging means to be performed accurately, in a short time. To do.

すなわち、前記課題を解決するため、本願の請求項1に記載の発明は、自車両の周囲の歩行者を検出する車両用走行支援装置であって、自車両の周囲の下部空間を撮像する下部空間撮像手段と、該下部空間撮像手段の撮像結果に基いて自車両の周囲に歩行者が存在することを検出する歩行者検出手段とを有し、前記下部空間撮像手段は、路面に接地している歩行者の足先を撮像することが可能な位置に設けられていると共に、前記下部空間撮像手段の路面からの高さと前記下部空間撮像手段で撮像された歩行者の足先までの俯角とに基いて歩行者と自車両との間の距離を計測する距離計測手段が備えられていることを特徴とする。 That is, in order to solve the above-mentioned problem, the invention according to claim 1 of the present application is a vehicular travel support device that detects a pedestrian around the host vehicle, and is a lower part that images a lower space around the host vehicle. Spatial imaging means, and pedestrian detection means for detecting the presence of a pedestrian around the host vehicle based on the imaging result of the lower space imaging means, the lower space imaging means being grounded on the road surface The height of the lower space imaging means from the road surface and the depression angle to the pedestrian's feet imaged by the lower space imaging means And a distance measuring means for measuring the distance between the pedestrian and the host vehicle .

次に、請求項2に記載の発明は、前記請求項1に記載の車両用走行支援装置において、自車両の周囲の上部空間を撮像する上部空間撮像手段と、前記下部空間撮像手段の撮像結果と前記上部空間撮像手段の撮像結果とに基いて自車両の周囲に歩行者が存在することを検出する第2の歩行者検出手段とをさらに有することを特徴とする。   Next, the invention according to claim 2 is the vehicle travel support device according to claim 1, wherein the upper space imaging means for imaging the upper space around the host vehicle and the imaging result of the lower space imaging means And second pedestrian detection means for detecting the presence of a pedestrian around the host vehicle based on the imaging result of the upper space imaging means.

次に、請求項3に記載の発明は、前記請求項1または2に記載の車両用走行支援装置において、前記下部空間撮像手段は、車体フロアパネルの下方に、水平方向に回動可能に設けられていることを特徴とする。 Next, according to a third aspect of the present invention, in the vehicle travel support apparatus according to the first or second aspect , the lower space imaging means is provided below the vehicle body floor panel so as to be rotatable in the horizontal direction. It is characterized by being.

次に、請求項4に記載の発明は、前記請求項1からのいずれかに記載の車両用走行支援装置において、前記下部空間撮像手段は、自車両の下部に設けられていると共に、車速が所定車速以上のときは前記下部空間撮像手段のレンズを保護するレンズ保護手段が備えられていることを特徴とする。 Next, according to a fourth aspect of the present invention, in the vehicular driving support apparatus according to any one of the first to third aspects, the lower space imaging means is provided at a lower portion of the host vehicle, and the vehicle speed. Lens protection means for protecting the lens of the lower space imaging means is provided when the vehicle speed exceeds a predetermined vehicle speed.

まず、請求項1に記載の発明によれば、自車両の周囲の下部空間を撮像する下部空間撮像手段を備え、この下部空間撮像手段の撮像結果に基いて自車両の周囲に歩行者が存在することを検出するようにしたから、歩行者の背景に立木や建物や車両等の多数の非障害物が一緒に写り込むことが抑制され、歩行者の背景はほとんど路面で占められて、画像処理が簡単・簡素となり、撮像データの中から接触を回避すべき歩行者を抽出・特定することが、確実に、精度よく、短時間で、行うことができるようになる。また、人の脚部を含む歩行者の下半身が撮像される結果、例えば人の頭部から肩部を含む歩行者の上半身が撮像される場合よりも、認識すべき形状・輪郭が簡単・単純となり、この点からも、撮像データの中から接触を回避すべき歩行者を抽出・特定することが、確実に、精度よく、短時間で、行うことができるようになる。 First, according to the first aspect of the present invention, the lower space imaging means for imaging the lower space around the host vehicle is provided, and a pedestrian exists around the own vehicle based on the imaging result of the lower space imaging means. It is possible to detect that many non-obstacles such as standing trees, buildings and vehicles are reflected in the background of the pedestrian, and the background of the pedestrian is almost occupied by the road surface. Processing becomes simple and simple, and extraction and identification of pedestrians whose contact should be avoided from the imaging data can be performed accurately and in a short time. In addition, as a result of imaging the lower body of the pedestrian including the person's legs, the shape and contour to be recognized are simpler and simpler than when the upper body of the pedestrian including the shoulder is captured from the head of the person. Therefore, also from this point, it becomes possible to extract and specify a pedestrian whose contact should be avoided from the imaging data, reliably and accurately in a short time.

さらに、この発明によれば、前記下部空間撮像手段を、路面に接地している歩行者の足先を撮像することが可能な位置に設け、この下部空間撮像手段の路面からの高さと、この下部空間撮像手段で撮像された歩行者の足先までの俯角とに基いて、歩行者と自車両との間の距離を計測するようにしたから、例えばレーザレーダやミリ波レーダ等の距離計測のための機器を別に備える必要がなくなる。また、たとえ歩行者が自車両に近接していても、自車両から歩行者までの正確な距離が得られる。Further, according to the present invention, the lower space imaging means is provided at a position where the foot of a pedestrian who is in contact with the road surface can be imaged, and the height of the lower space imaging means from the road surface, Since the distance between the pedestrian and the subject vehicle is measured based on the depression angle to the pedestrian's foot imaged by the lower space imaging means, for example, distance measurement such as laser radar or millimeter wave radar There is no need to provide a separate device for Even if the pedestrian is close to the host vehicle, an accurate distance from the host vehicle to the pedestrian can be obtained.

次に、請求項2に記載の発明によれば、自車両の周囲の上部空間を撮像する上部空間撮像手段をさらに備え、前記下部空間撮像手段の撮像結果と、この上部空間撮像手段の撮像結果とに基いて、自車両の周囲に歩行者が存在することを検出するようにしたから、歩行者の存在をより多くのデータから総合的に検出することができて(データの融合:データフュージョン)、歩行者であることの認識精度の向上が図られる。   Next, according to the second aspect of the present invention, the apparatus further includes an upper space imaging unit that images the upper space around the host vehicle, and the imaging result of the lower space imaging unit and the imaging result of the upper space imaging unit Based on the above, since the presence of pedestrians around the vehicle is detected, the presence of pedestrians can be comprehensively detected from more data (data fusion: data fusion). ), The recognition accuracy of being a pedestrian can be improved.

また、請求項3に記載の発明によれば、前記下部空間撮像手段を車体フロアパネルの下方に設け、且つ水平方向に回動可能に設けたから、自車両の周囲の近接物体や歩行者を全方位で監視でき、前進発進時又は後進発進時における障害物検知ができて、発進時における接触等のトラブルが回避できる。 According to the third aspect of the present invention, since the lower space imaging means is provided below the vehicle body floor panel and is provided so as to be rotatable in the horizontal direction, it is possible to remove all adjacent objects and pedestrians around the host vehicle. It is possible to monitor in the direction, detect obstacles when starting forward or starting backward, and avoid troubles such as contact when starting.

そして、請求項4に記載の発明によれば、前記下部空間撮像手段を自車両の下部に設け、車速が所定車速以上のときは、この下部空間撮像手段のレンズを保護するようにしたから、撮像手段のレンズが汚れ易い状況下において、レンズの汚れを防止することができる。以下、発明の実施形態を通して本発明をさらに詳しく説明する。


According to the invention described in claim 4 , since the lower space imaging means is provided in the lower part of the host vehicle and the vehicle speed is equal to or higher than a predetermined vehicle speed, the lens of the lower space imaging means is protected. In a situation where the lens of the image pickup unit is easily soiled, the lens can be prevented from being soiled. Hereinafter, the present invention will be described in more detail through embodiments of the invention.


図1は、本実施形態に係る車両用走行支援装置1の各構成要素のレイアウト図である。この走行支援装置1は、自車両Xの周囲の上部空間を撮像する上部空間撮像手段として上部カメラ20を含み、自車両Xの周囲の下部空間を撮像する下部空間撮像手段として下部カメラ30を含んでいる。上部カメラ20は車室前部のルームミラー近傍に備えられ、下部カメラ30は車両前端部のフロントバンパー部に備えられている。これらのカメラ20,30は例えばCCDカメラやCMOSカメラ等の画像センサで構成されている。これらのカメラ20,30は、自車両Xの周囲を撮像し、その撮像データの中から、接触を避けるべき他車両や歩行者等の障害物を抽出・特定するものである。   FIG. 1 is a layout diagram of each component of the vehicle travel support apparatus 1 according to the present embodiment. The driving support apparatus 1 includes an upper camera 20 as an upper space imaging unit that images an upper space around the host vehicle X, and includes a lower camera 30 as a lower space imaging unit that images a lower space around the host vehicle X. It is out. The upper camera 20 is provided in the vicinity of the rear-view mirror at the front of the vehicle compartment, and the lower camera 30 is provided at the front bumper at the front end of the vehicle. These cameras 20 and 30 are constituted by image sensors such as a CCD camera and a CMOS camera, for example. These cameras 20 and 30 capture the surroundings of the host vehicle X, and extract and specify obstacles such as other vehicles and pedestrians that should avoid contact from the captured data.

また、この走行支援装置1は、自車両Xの周囲の障害物と自車両Xとの間の距離を計測する距離計測手段として、例えばレーザレーダやミリ波レーダ等のレーダ40を含んでいる。このレーダ40は車両前端部のフロントグリルに備えられている。このレーダ40は、詳しくは図示しないが、障害物に向けて光を発する発光部と、該発光部で発せられて障害物に当って反射してきた光を受ける受光部とを有し、前記発光部で光を発してから前記受光部で光を受けるまでの時間に基いて、自車両Xから障害物までの距離を計測するものである。   In addition, the driving support device 1 includes a radar 40 such as a laser radar or a millimeter wave radar as a distance measuring unit that measures a distance between an obstacle around the host vehicle X and the host vehicle X. The radar 40 is provided on the front grill at the front end of the vehicle. Although not shown in detail, the radar 40 includes a light emitting unit that emits light toward the obstacle, and a light receiving unit that receives the light emitted from the light emitting unit and reflected by the obstacle. The distance from the own vehicle X to the obstacle is measured based on the time from when the light is emitted from the part until the light is received by the light receiving part.

また、この走行支援装置1は、表示及び警報装置50を含んでいる。この表示及び警報装置50は運転席前方のインスツルメントパネルに備えられている。この表示及び警報装置50は、前記カメラ20,30やレーダ40で検出された自車両Xの周囲の他車両や歩行者等の障害物を表示すると共に、該障害物との接触を回避するように運転者に視覚や聴覚による警報を発するものである。さらに、この走行支援装置1は、自車両Xの車両速度を検出する車速センサ60と、下部カメラ30のレンズを保護するレンズ保護手段としてレンズカバーアクチュエータ70とを含んでいる。   The travel support device 1 also includes a display and alarm device 50. This display and alarm device 50 is provided on the instrument panel in front of the driver's seat. The display and alarm device 50 displays obstacles such as other vehicles and pedestrians around the host vehicle X detected by the cameras 20 and 30 and the radar 40, and avoids contact with the obstacles. In addition, a visual and auditory warning is issued to the driver. Furthermore, the driving support apparatus 1 includes a vehicle speed sensor 60 that detects the vehicle speed of the host vehicle X, and a lens cover actuator 70 as lens protection means that protects the lens of the lower camera 30.

図2は、この走行支援装置1のコントロールユニット10を中心とした制御システム図である。コントロールユニット10は、図示しないが、CPUで構成される中央処理部を有している。コントロールユニット10は、上部カメラ20からの信号(上部空間画像)と、下部カメラ30からの信号(下部空間画像)と、レーダ40からの信号(計測距離)とを入力し、これらの信号に基いて、自車両Xの周囲に歩行者が存在することを検出し(歩行者検出手段、第2の歩行者検出手段)、その検出結果に応じて表示及び警報装置50に制御信号を出力し、運転者に歩行者の存在を報知する。その結果、運転者の認知・判断・操作を補助して、前記歩行者との接触を回避するように運転者の車両操作を支援する。   FIG. 2 is a control system diagram centering on the control unit 10 of the driving support apparatus 1. Although not shown, the control unit 10 has a central processing unit composed of a CPU. The control unit 10 inputs a signal from the upper camera 20 (upper space image), a signal from the lower camera 30 (lower space image), and a signal from the radar 40 (measurement distance), and based on these signals. And detecting that there is a pedestrian around the host vehicle X (pedestrian detection means, second pedestrian detection means), and outputs a control signal to the display and alarm device 50 according to the detection result, Inform the driver of the presence of a pedestrian. As a result, the driver's vehicle operation is assisted so as to assist the driver's recognition / judgment / operation and avoid contact with the pedestrian.

また、コントロールユニット10は、車速センサ60からの信号(車両速度)を入力し、この信号に基いて、レンズカバーアクチュエータ70に制御信号を出力し、下部カメラ30のレンズを汚れから保護する。   The control unit 10 also receives a signal (vehicle speed) from the vehicle speed sensor 60 and outputs a control signal to the lens cover actuator 70 based on this signal to protect the lens of the lower camera 30 from contamination.

図3は、下部カメラ30をフロントバンパー部に配設した、この実施形態(第1の実施形態)における、上部カメラ20及び下部カメラ30の各撮像範囲を示す説明図である。前述したように、上部カメラ20は、自車両Xの周囲の上部空間を撮像するため、自車両Xの前方に存在する歩行者Yの頭部や肩部を含む上半身を撮像することとなり、下部カメラ30は、自車両Xの周囲の下部空間を撮像するため、自車両Xの前方に存在する歩行者Yの脚部や足先を含む下半身を撮像することとなる。   FIG. 3 is an explanatory diagram showing the imaging ranges of the upper camera 20 and the lower camera 30 in this embodiment (first embodiment) in which the lower camera 30 is disposed in the front bumper portion. As described above, since the upper camera 20 images the upper space around the host vehicle X, it captures the upper body including the head and shoulders of the pedestrian Y existing in front of the host vehicle X. Since the camera 30 captures an image of the lower space around the host vehicle X, the camera 30 captures the lower body of the pedestrian Y existing in front of the host vehicle X including the legs and toes.

その結果、図4に示すように、上部カメラ20で撮像した画像(上部空間画像)W1には、接触を回避すべき歩行者Yの上半身の他、その背景に立木等の多数の非障害物が一緒に写り込むので、画像処理が複雑となり、撮像データの中から歩行者Yを抽出・特定するのに長い時間がかかったり、又は失敗する、という懸念がある。また、歩行者Yの上半身は、下半身に比べて、形状や輪郭が複雑なので、この点からも、撮像データの中から歩行者Yを抽出・特定するのに長い時間がかかったり、又は失敗する、という懸念がある。   As a result, as shown in FIG. 4, the image (upper space image) W <b> 1 captured by the upper camera 20 includes a large number of non-obstacles such as standing trees in addition to the upper body of the pedestrian Y that should avoid contact Therefore, there is a concern that it takes a long time or fails to extract and specify the pedestrian Y from the imaging data. Moreover, since the upper body of the pedestrian Y has a more complicated shape and contour than the lower body, it takes a long time to extract / specify the pedestrian Y from the imaging data, or the pedestrian Y fails. There is a concern that.

一方、図5に示すように、下部カメラ30で撮像した画像(下部空間画像)W2には、接触を回避すべき歩行者Yの下半身の背景に立木等の多数の非障害物が一緒に写り込むことが抑制され、歩行者Yの下半身の背景はほとんど路面Rで占められるので、画像処理が簡単・簡素となり、撮像データの中から歩行者Yを抽出・特定することが、確実に、精度よく、短時間で、行うことができる。また、歩行者Yの下半身は、上半身に比べて、形状や輪郭が簡単・単純なので、この点からも、撮像データの中から歩行者Yを抽出・特定することが、確実に、精度よく、短時間で、行うことができる。   On the other hand, as shown in FIG. 5, an image (lower space image) W2 captured by the lower camera 30 includes a large number of non-obstacles such as standing trees on the background of the lower body of the pedestrian Y that should avoid contact. Since the background of the lower body of the pedestrian Y is almost occupied by the road surface R, the image processing becomes simple and simple, and the extraction and identification of the pedestrian Y from the imaging data is surely accurate. Well, it can be done in a short time. Also, since the lower body of the pedestrian Y is simpler and simpler than the upper body, the shape and contour are simpler and simpler. From this point, the extraction and identification of the pedestrian Y from the imaging data is surely and accurately performed It can be done in a short time.

図6は、下部カメラ30により自車両Xと歩行者Yとの間の距離Lを計測する原理の説明図である。下部カメラ30は、路面Rに接地している歩行者Yの足先を撮像することが可能な位置(例えばこの第1実施形態のようにフロントバンパー部又は次の第2実施形態のようにフロアパネル下部)に設けられている。そして、歩行者Yと自車両Xとの間の距離Lは、次式(1)に基いて計測できる。
歩行者Yまでの距離L=H×(f/y)
=H×tan(90−θ) ……(1)
ここで、Hは、下部カメラ30の路面Rからの高さ、fは、下部カメラ30の焦点距離、yは、下部カメラ30の撮像面s上での歩行者Yの足先の位置(y座標位置)、及びθは、歩行者Yの足先への俯角である。したがって、レーダ40を第1の距離計測手段とすると、この下部カメラ30は第2の距離計測手段であるといえる。
FIG. 6 is an explanatory diagram of the principle of measuring the distance L between the host vehicle X and the pedestrian Y by the lower camera 30. The lower camera 30 can position the foot of the pedestrian Y who is in contact with the road surface R (for example, the front bumper as in the first embodiment or the floor panel as in the second embodiment). (Lower part). And the distance L between the pedestrian Y and the own vehicle X can be measured based on following Formula (1).
Distance to pedestrian Y L = H × (f / y)
= H × tan (90−θ) (1)
Here, H is the height of the lower camera 30 from the road surface R, f is the focal length of the lower camera 30, and y is the position of the foot of the pedestrian Y on the imaging surface s of the lower camera 30 (y (Coordinate position) and θ are depression angles to the pedestrian Y's foot. Therefore, if the radar 40 is the first distance measuring means, it can be said that the lower camera 30 is the second distance measuring means.

次に、図7のフローチャートを参照しながら、前記コントロールユニット10が行う、上部カメラ20による歩行者認識動作の具体的1例を説明する。まず、コントロールユニット10は、ステップS1で、上部空間画像W1を取得し、ステップS2で、該上部空間画像W1中に何等かの物体が検出されたか否かを判定する。その結果、検出されたときは、ステップS3で、該上部空間画像W1を用いて歩行者Yの認識を実行する一方、検出されなかったときは、後述する図8のステップS24に進んで、下部カメラ30で撮像した下部空間画像W2を用いて歩行者Yの認識を実行する。   Next, a specific example of the pedestrian recognition operation by the upper camera 20 performed by the control unit 10 will be described with reference to the flowchart of FIG. First, the control unit 10 acquires the upper space image W1 in step S1, and determines whether any object is detected in the upper space image W1 in step S2. As a result, when it is detected, in step S3, recognition of the pedestrian Y is executed using the upper space image W1, and when it is not detected, the process proceeds to step S24 in FIG. Recognition of the pedestrian Y is performed using the lower space image W2 imaged by the camera 30.

次いで、ステップS4で、歩行者Yの認識ができたか否かを判定し、できたときは、ステップS5で、その歩行者Yまでの距離Lをレーダ40を用いて計測し、ステップS6で、その計測距離Lが所定の距離Loよりも短いと判定されたときは、ステップS7で、前記歩行者Yは再認識が必要な物体(歩行者Y)であると判定し、後述する図8のステップS31に進んで、上部カメラ20で撮像した上部空間画像W1と下部カメラ30で撮像した下部空間画像W2の両方を用いて歩行者Yの再認識を実行する(データフュージョン)。一方、前記ステップS6で、計測距離Lが所定の距離Loよりも長いと判定されたときには、ステップS8で、前記歩行者Yは未だ接触する可能性の低い自車両Xから遠隔位置に存在する歩行者Yであると判定し、リターンする(次フレームの処理に移行する)。   Next, in step S4, it is determined whether or not the pedestrian Y has been recognized. If so, the distance L to the pedestrian Y is measured using the radar 40 in step S5, and in step S6, When it is determined that the measurement distance L is shorter than the predetermined distance Lo, it is determined in step S7 that the pedestrian Y is an object (pedestrian Y) that needs to be re-recognized, and will be described later with reference to FIG. Proceeding to step S31, re-recognition of the pedestrian Y is executed using both the upper space image W1 imaged by the upper camera 20 and the lower space image W2 imaged by the lower camera 30 (data fusion). On the other hand, when it is determined in step S6 that the measured distance L is longer than the predetermined distance Lo, in step S8, the pedestrian Y is still walking at a remote position from the own vehicle X that is not likely to contact. It is determined that the user is Y, and the process returns (shifts to processing of the next frame).

これに対し、前記ステップS4で、歩行者Yの認識ができなかったときは、ステップS9で、その物体までの距離Lをレーダ40を用いて計測し、ステップS10で、その計測距離Lが所定の距離Loよりも短いと判定されたときは、ステップS7で、前記物体は再認識が必要な物体であると判定し、後述する図8のステップS31に進んで、上部カメラ20で撮像した上部空間画像W1と下部カメラ30で撮像した下部空間画像W2の両方を用いて物体の再認識を実行する(データフュージョン)。一方、前記ステップS10で、計測距離Lが所定の距離Loよりも長いと判定されたときには、ステップS11で、前記物体は歩行者Y以外の物体であると判定し、リターンする(次フレームの処理に移行する)。   On the other hand, when the pedestrian Y cannot be recognized in step S4, the distance L to the object is measured using the radar 40 in step S9, and the measurement distance L is determined in step S10. If it is determined that the distance is shorter than the distance Lo, it is determined in step S7 that the object is an object that needs to be re-recognized, and the process proceeds to step S31 in FIG. Object re-recognition is executed using both the spatial image W1 and the lower spatial image W2 captured by the lower camera 30 (data fusion). On the other hand, when it is determined in step S10 that the measurement distance L is longer than the predetermined distance Lo, it is determined in step S11 that the object is an object other than the pedestrian Y, and the process returns (processing of the next frame). To).

次に、図8のフローチャートを参照しながら、前記コントロールユニット10が行う、下部カメラ30による歩行者認識動作の具体的1例を説明する。まず、コントロールユニット10は、ステップS21で、下部空間画像W2を取得し、ステップS22で、該下部空間画像W2中に何等かの物体が検出されたか否かを判定する。その結果、検出されたときは、ステップS23で、上部カメラ20による物体検出があるか否かを判定し、無いときは、ステップS24で、下部空間画像W2を用いて歩行者Yの認識を実行する一方、有るときには、ステップS31で、上部空間画像W1と下部空間画像W2の両方を用いて歩行者Yの認識(図7のステップS7から移行してきたときは「再認識」)を実行する(データフュージョン)。   Next, a specific example of the pedestrian recognition operation by the lower camera 30 performed by the control unit 10 will be described with reference to the flowchart of FIG. First, the control unit 10 acquires the lower space image W2 in step S21, and determines whether any object is detected in the lower space image W2 in step S22. As a result, if it is detected, it is determined in step S23 whether or not there is an object detected by the upper camera 20, and if not, in step S24, the pedestrian Y is recognized using the lower space image W2. On the other hand, if there is, in step S31, recognition of the pedestrian Y is performed using both the upper space image W1 and the lower space image W2 ("re-recognition" when moving from step S7 in FIG. 7) ( Data fusion).

そして、いずれの場合も、ステップS25で、歩行者Yの認識ができたか否かを判定し、できたときは、ステップS26で、その歩行者Yまでの距離Lを下部カメラ30を用いて計測し、ステップS27で、その計測距離Lが所定の距離Loよりも短いと判定されたときは、ステップS28で、前記歩行者Yは最優先に接触を回避することが必要な自車両Xの近接位置に存在する歩行者Yであると判定し、リターンする(次フレームの処理に移行する)。   In any case, in step S25, it is determined whether or not the pedestrian Y has been recognized. If so, the distance L to the pedestrian Y is measured using the lower camera 30 in step S26. If it is determined in step S27 that the measured distance L is shorter than the predetermined distance Lo, in step S28, the pedestrian Y is required to avoid contact with the host vehicle X in the highest priority. It determines with it being the pedestrian Y who exists in a position, and returns (it transfers to the process of the following flame | frame).

一方、前記ステップS27で、計測距離Lが所定の距離Loよりも長いと判定されたときには、ステップS29で、前記歩行者Yは未だ接触する可能性の低い自車両Xから遠隔位置に存在する歩行者Yであると判定し、リターンする(次フレームの処理に移行する)。   On the other hand, when it is determined in step S27 that the measured distance L is longer than the predetermined distance Lo, in step S29, the pedestrian Y is still in a remote position from the own vehicle X that is unlikely to contact. It is determined that the user is Y, and the process returns (shifts to processing of the next frame).

これに対し、前記ステップS25で、歩行者Yの認識ができなかったときは、ステップS30で、前記物体は歩行者Y以外の物体であると判定し、リターンする(次フレームの処理に移行する)。さらに、前記ステップS22で、物体が検出されなかったときは、そのままリターンする(次フレームの処理に移行する)。   On the other hand, when the pedestrian Y cannot be recognized in step S25, it is determined in step S30 that the object is an object other than the pedestrian Y, and the process returns (shifts to processing of the next frame). ). Furthermore, if no object is detected in step S22, the process returns as it is (transition to the next frame).

以上のように、本実施形態においては、自車両Xの周囲の下部空間を撮像する下部カメラ30を備え、この下部カメラ30の撮像結果W2に基いて自車両Xの周囲に歩行者Yが存在することを検出するようにしたから(図8のステップS24)、歩行者Yの背景に立木や建物や車両等の多数の非障害物が一緒に写り込むことが抑制され、歩行者Yの背景はほとんど路面Rで占められて(図5のW2)、画像処理が簡単・簡素となり、撮像データの中から接触を回避すべき歩行者Yを抽出・特定することが、確実に、精度よく、短時間で、行うことができるようになる。   As described above, the present embodiment includes the lower camera 30 that images the lower space around the host vehicle X, and the pedestrian Y exists around the host vehicle X based on the imaging result W2 of the lower camera 30. (Step S24 in FIG. 8), it is suppressed that many non-obstacles such as standing trees, buildings and vehicles are reflected in the background of the pedestrian Y, and the background of the pedestrian Y Is almost occupied by the road surface R (W2 in FIG. 5), and the image processing becomes simple and simple, and the extraction and identification of the pedestrian Y that should avoid contact from the imaging data is surely and accurately performed. It can be done in a short time.

また、人の脚部を含む歩行者Yの下半身が撮像される結果(図5のW2)、例えば人の頭部から肩部を含む歩行者Yの上半身が撮像される場合よりも(図4のW1)、認識すべき形状・輪郭が簡単・単純となり、この点からも、撮像データの中から接触を回避すべき歩行者Yを抽出・特定することが、確実に、精度よく、短時間で、行うことができるようになる。   Further, the result of imaging the lower body of the pedestrian Y including the person's legs (W2 in FIG. 5), for example, compared to the case where the upper body of the pedestrian Y including the shoulder from the person's head is imaged (FIG. 4). W1), the shape / contour to be recognized becomes simple and simple. Also from this point, it is possible to reliably and accurately extract the pedestrian Y whose contact should be avoided from the imaging data in a short time. Now you can do it.

また、自車両Xの周囲の上部空間を撮像する上部カメラ20をさらに備え、前記下部カメラ30の撮像結果W2と、この上部カメラ20の撮像結果W1とに基いて、自車両Xの周囲に歩行者Yが存在することを検出するようにしたから(図8のステップS31)、歩行者Yの存在をより多くのデータから総合的に検出することができて(データフュージョン)、歩行者Yであることの認識精度の向上が図られる。   The camera further includes an upper camera 20 that captures an upper space around the host vehicle X, and walks around the host vehicle X based on an imaging result W2 of the lower camera 30 and an imaging result W1 of the upper camera 20. Since the presence of the person Y is detected (step S31 in FIG. 8), the presence of the pedestrian Y can be comprehensively detected from more data (data fusion). This improves the recognition accuracy.

その場合に、上部カメラ20で撮像された被撮像物と自車両Xとの間の距離Lを計測するレーダ40を備え、このレーダ40で計測された距離Lが所定の距離Loよりも短いときに限り(図7のステップS6,S10)、前記下部カメラ30の撮像結果W2と前記上部カメラ20の撮像結果W1とに基いて自車両Xの周囲に歩行者Yが存在することを検出するようにしたから、歩行者Yであることの認識精度がより高く求められている状況下において、近接歩行者Yの存在をより多くのデータから総合的に検出することができて(データフュージョン)、近接歩行者Yであることの認識精度の向上が図られ、下部カメラ30の撮像結果W2を含めて近接歩行者Yであることの再検証・再確認を行うことができる。   In that case, when the radar 40 that measures the distance L between the subject imaged by the upper camera 20 and the host vehicle X is provided, and the distance L measured by the radar 40 is shorter than the predetermined distance Lo. Only (steps S6 and S10 in FIG. 7), the presence of a pedestrian Y around the host vehicle X is detected based on the imaging result W2 of the lower camera 30 and the imaging result W1 of the upper camera 20. Therefore, in a situation where the recognition accuracy of being a pedestrian Y is required to be higher, the presence of a nearby pedestrian Y can be comprehensively detected from more data (data fusion), The recognition accuracy of being a nearby pedestrian Y can be improved, and the verification result / reconfirmation of being a nearby pedestrian Y can be performed including the imaging result W2 of the lower camera 30.

また、下部カメラ30を、路面Rに接地している歩行者Yの足先を撮像することが可能な位置に設け、この下部カメラ30の路面Rからの高さHと、この下部カメラ30で撮像された歩行者Yの足先までの俯角θとに基いて、歩行者Yと自車両Xとの間の距離Lを計測するようにしたから(図6)、距離計測のための機器(レーダ40等)を別に備える必要がなくなる。また、たとえ歩行者Yが自車両Xに近接していても、自車両Xから歩行者Yまでの正確な距離Lが算出できる。   Further, the lower camera 30 is provided at a position where the foot of the pedestrian Y who is in contact with the road surface R can be imaged. The height H of the lower camera 30 from the road surface R and the lower camera 30 Since the distance L between the pedestrian Y and the host vehicle X is measured based on the imaged depression angle θ to the foot of the pedestrian Y (FIG. 6), a device for distance measurement ( The need for a separate radar 40) is eliminated. Even if the pedestrian Y is close to the host vehicle X, the accurate distance L from the host vehicle X to the pedestrian Y can be calculated.

ところで、自車両Xの周囲の下部空間を撮像するために、下部カメラ30を自車両Xの下部に設けると、レンズの汚れが懸念される。そこで、車速センサ60で検出される車速が所定車速以上のときは、レンズカバーアクチュエータ70を作動させて、レンズをカバーで覆い、レンズの保護を図るようにすればよい。これにより、下部カメラ30のレンズが汚れ易い状況下において、該レンズの汚れを防止することが可能となる。なお、レンズ保護手段の他の例として、車速が所定車速以上のときは、カメラを車体内部に格納するようにしてもよい。   By the way, when the lower camera 30 is provided in the lower part of the own vehicle X in order to image the lower space around the own vehicle X, there is a concern about contamination of the lens. Therefore, when the vehicle speed detected by the vehicle speed sensor 60 is equal to or higher than the predetermined vehicle speed, the lens cover actuator 70 may be operated to cover the lens with the cover to protect the lens. Thereby, it becomes possible to prevent the lens of the lower camera 30 from being soiled in a situation where the lens is easily soiled. As another example of the lens protection means, when the vehicle speed is equal to or higher than a predetermined vehicle speed, the camera may be stored inside the vehicle body.

次に、図9は、下部カメラ30を車体フロアパネル下部に配設した、第2の実施形態における、上部カメラ20及び下部カメラ30の各撮像範囲を示す説明図である。第1の実施形態と同様、上部カメラ20は、自車両Xの周囲の上部空間を撮像するため、自車両Xの前方に存在する歩行者Yの頭部や肩部を含む上半身を撮像することとなり、下部カメラ30は、自車両Xの周囲の下部空間を撮像するため、自車両Xの前方に存在する歩行者Yの脚部や足先を含む下半身を撮像することとなる。   Next, FIG. 9 is an explanatory diagram showing respective imaging ranges of the upper camera 20 and the lower camera 30 in the second embodiment in which the lower camera 30 is disposed at the lower part of the vehicle body floor panel. As in the first embodiment, the upper camera 20 images the upper body including the head and shoulders of the pedestrian Y existing in front of the host vehicle X in order to capture the upper space around the host vehicle X. Thus, the lower camera 30 images the lower body including the legs and feet of the pedestrian Y existing in front of the host vehicle X in order to capture the lower space around the host vehicle X.

図10は、この第2実施形態における、下部カメラ30による撮像データ(下部空間画像)W3のイメージ図である。下部カメラ30を車体フロアパネル下部に配設したため、画像W3の上部はフロアパネル(自車両と同じ符号Xを付している)で占められ、画像W3の下部は路面Rで占められている。そして、その路面Rを背景にして、接触を回避すべき歩行者Yの脚部や足先が撮像されている。したがって、歩行者Yの背景に立木や建物等の非障害物が写り込むことが一切抑制され、歩行者Yの背景はすべて路面Rで占められるので、画像処理がより一層簡単・簡素となり、撮像データの中から歩行者Yを抽出・特定することが、より一層、確実に、精度よく、短時間で、行うことができる。   FIG. 10 is an image diagram of image data (lower space image) W3 captured by the lower camera 30 in the second embodiment. Since the lower camera 30 is disposed at the lower part of the vehicle body floor panel, the upper part of the image W3 is occupied by the floor panel (same as X of the host vehicle), and the lower part of the image W3 is occupied by the road surface R. Then, with the road surface R in the background, the legs and toes of the pedestrian Y that should avoid contact are imaged. Therefore, it is completely prevented that non-obstacles such as standing trees and buildings are reflected in the background of the pedestrian Y, and since the background of the pedestrian Y is entirely occupied by the road surface R, the image processing becomes much simpler and simpler, and imaging Extracting and specifying the pedestrian Y from the data can be performed more reliably, accurately and in a short time.

この第2実施形態では、下部カメラ30を水平方向に回動可能に設けるとよい。自車両Xの周囲の近接物体や歩行者Yを全方位的に監視することができ、特に、前進発進時や後進発進時における障害物検知が可能となって、発進時における障害物との接触等のトラブルが回避できる。   In the second embodiment, the lower camera 30 may be provided so as to be rotatable in the horizontal direction. It is possible to monitor omnidirectional objects and pedestrians Y around the host vehicle X. In particular, it is possible to detect obstacles when starting forward or starting backward, and contact with obstacles when starting. Etc. can be avoided.

なお、本実施形態は、本発明の最良の実施形態ではあるが、特許請求の範囲を逸脱しない限り、なお種々の修正、変更が可能なことはいうまでもない。例えば、上部カメラ20で撮像された被撮像物までの距離L(図7のステップS5,S9)と、下部カメラ30で撮像された被撮像物までの距離L(図8のステップS26)とが、ほぼ同じである場合に限り、上部空間画像W1と下部空間画像W2との両方を用いて歩行者Yの認識・再認識を行うようにしてもよい(図8のステップS31)。データの融合が円滑となり、認識精度の増大が期待される。   Although the present embodiment is the best embodiment of the present invention, it goes without saying that various modifications and changes can be made without departing from the scope of the claims. For example, the distance L to the object to be imaged captured by the upper camera 20 (steps S5 and S9 in FIG. 7) and the distance L to the object to be imaged captured by the lower camera 30 (step S26 in FIG. 8). Only when they are substantially the same, the pedestrian Y may be recognized and re-recognized using both the upper space image W1 and the lower space image W2 (step S31 in FIG. 8). Data fusion will be smooth and recognition accuracy is expected to increase.

以上、具体例を挙げて詳しく説明したように、本発明は、運転者の認知・判断・操作を補助する車両用走行支援装置において、撮像手段による歩行者の抽出・特定を、確実に、精度よく、短時間で、行うことができるもので、車両用走行支援装置の技術分野において幅広い産業上の利用可能性が期待される。   As described above in detail with reference to specific examples, the present invention is a vehicle driving support device that assists the driver's recognition, determination, and operation. It can be carried out in a short time, and is expected to have a wide range of industrial applicability in the technical field of vehicular travel support devices.

本発明の最良の実施形態に係る車両用走行支援装置の各構成要素のレイアウト図である。FIG. 2 is a layout diagram of each component of the vehicle travel support apparatus according to the best embodiment of the present invention. 前記車両用走行支援装置のコントロールユニットを中心とした制御システム図である。It is a control system figure centering on the control unit of the said travel support apparatus for vehicles. 下部カメラをフロントバンパー部に配設した場合の上部カメラ及び下部カメラの各撮像範囲を示す説明図である(第1の実施形態)。It is explanatory drawing which shows each imaging range of an upper camera and a lower camera at the time of arrange | positioning a lower camera to a front bumper part (1st Embodiment). 前記第1の実施形態の上部カメラによる撮像データ(上部空間画像)のイメージ図である。It is an image figure of the imaging data (upper space image) by the upper camera of the said 1st Embodiment. 同、下部カメラによる撮像データ(下部空間画像)のイメージ図である。It is an image figure of the imaging data (lower space image) by a lower camera equally. 下部カメラによる歩行者までの距離計測の原理説明図である。It is a principle explanatory view of distance measurement to a pedestrian by a lower camera. 前記コントロールユニットが行う、上部カメラによる歩行者認識動作の具体的1例を示すフローチャートである。It is a flowchart which shows one specific example of the pedestrian recognition operation | movement by an upper camera which the said control unit performs. 前記コントロールユニットが行う、下部カメラによる歩行者認識動作の具体的1例を示すフローチャートである。It is a flowchart which shows one specific example of the pedestrian recognition operation | movement by a lower camera which the said control unit performs. 下部カメラをフロアパネル下部に配設した場合の上部カメラ及び下部カメラの各撮像範囲を示す説明図である(第2の実施形態)。It is explanatory drawing which shows each imaging range of an upper camera and a lower camera at the time of arrange | positioning a lower camera to a floor panel lower part (2nd Embodiment). 前記第2の実施形態の下部カメラによる撮像データ(下部空間画像)のイメージ図である。It is an image figure of the imaging data (lower space image) by the lower camera of the said 2nd Embodiment.

符号の説明Explanation of symbols

1 車両用走行支援装置
10 コントロールユニット(歩行者検出手段、第2の歩行者検出手段)
20 上部カメラ(上部空間撮像手段)
30 下部カメラ(下部空間撮像手段、第2の距離計測手段)
40 レーダ(距離計測手段)
50 車速センサ
60 表示及び警報装置
70 レンズカバーアクチュエータ(レンズ保護手段)
R 路面
X 自車両
Y 歩行者
DESCRIPTION OF SYMBOLS 1 Vehicle travel assistance apparatus 10 Control unit (pedestrian detection means, 2nd pedestrian detection means)
20 Upper camera (upper space imaging means)
30 Lower camera (lower space imaging means, second distance measuring means)
40 Radar (distance measuring means)
50 Vehicle speed sensor 60 Display and alarm device 70 Lens cover actuator (lens protection means)
R Road surface X Own vehicle Y Pedestrian

Claims (4)

自車両の周囲の歩行者を検出する車両用走行支援装置であって、
自車両の周囲の下部空間を撮像する下部空間撮像手段と、
該下部空間撮像手段の撮像結果に基いて自車両の周囲に歩行者が存在することを検出する歩行者検出手段とを有し、
前記下部空間撮像手段は、路面に接地している歩行者の足先を撮像することが可能な位置に設けられていると共に、
前記下部空間撮像手段の路面からの高さと前記下部空間撮像手段で撮像された歩行者の足先までの俯角とに基いて歩行者と自車両との間の距離を計測する距離計測手段が備えられていることを特徴とする車両用走行支援装置。
A vehicle travel support device that detects pedestrians around the host vehicle,
Lower space imaging means for imaging the lower space around the host vehicle;
Pedestrian detection means for detecting the presence of a pedestrian around the host vehicle based on the imaging result of the lower space imaging means ,
The lower space imaging means is provided at a position where it is possible to image a pedestrian's toes that are in contact with the road surface,
Distance measuring means for measuring the distance between the pedestrian and the vehicle based on the height from the road surface of the lower space imaging means and the depression angle to the pedestrian's feet imaged by the lower space imaging means A vehicular travel support apparatus characterized by being provided.
前記請求項1に記載の車両用走行支援装置において、
自車両の周囲の上部空間を撮像する上部空間撮像手段と、
前記下部空間撮像手段の撮像結果と前記上部空間撮像手段の撮像結果とに基いて自車両の周囲に歩行者が存在することを検出する第2の歩行者検出手段とをさらに有することを特徴とする車両用走行支援装置。
In the vehicle travel support device according to claim 1,
Upper space imaging means for imaging the upper space around the host vehicle;
And further comprising second pedestrian detection means for detecting the presence of a pedestrian around the host vehicle based on the imaging result of the lower space imaging means and the imaging result of the upper space imaging means. A vehicle driving support device.
前記請求項1または2に記載の車両用走行支援装置において、
前記下部空間撮像手段は、車体フロアパネルの下方に、水平方向に回動可能に設けられていることを特徴とする車両用走行支援装置。
In the vehicle travel support device according to claim 1 or 2 ,
The vehicular travel support apparatus, wherein the lower space imaging means is provided below the vehicle body floor panel so as to be rotatable in the horizontal direction .
前記請求項1から3のいずれかに記載の車両用走行支援装置において、
前記下部空間撮像手段は、自車両の下部に設けられていると共に、
車速が所定車速以上のときは前記下部空間撮像手段のレンズを保護するレンズ保護手段が備えられていることを特徴とする車両用走行支援装置。
In the vehicle travel support device according to any one of claims 1 to 3,
The lower space imaging means is provided at the lower part of the host vehicle ,
A vehicle travel support apparatus, comprising: lens protection means for protecting the lens of the lower space imaging means when the vehicle speed is equal to or higher than a predetermined vehicle speed .
JP2005205476A 2005-07-14 2005-07-14 Vehicle travel support device Expired - Fee Related JP4539472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005205476A JP4539472B2 (en) 2005-07-14 2005-07-14 Vehicle travel support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005205476A JP4539472B2 (en) 2005-07-14 2005-07-14 Vehicle travel support device

Publications (2)

Publication Number Publication Date
JP2007025947A JP2007025947A (en) 2007-02-01
JP4539472B2 true JP4539472B2 (en) 2010-09-08

Family

ID=37786634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005205476A Expired - Fee Related JP4539472B2 (en) 2005-07-14 2005-07-14 Vehicle travel support device

Country Status (1)

Country Link
JP (1) JP4539472B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5061651B2 (en) * 2007-03-01 2012-10-31 マツダ株式会社 Automotive front structure
CN103072536B (en) * 2013-01-31 2016-01-27 同致电子科技(昆山)有限公司 Vehicle telematic blind area detecting system
JP2022142072A (en) * 2021-03-16 2022-09-30 株式会社Jvcケンウッド Detection device for vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092792A (en) * 2000-09-13 2002-03-29 Nissan Motor Co Ltd Existing pedestrian informing device and on-vehicle pedestrian detecting device
JP2002099997A (en) * 2000-09-26 2002-04-05 Mitsubishi Motors Corp Detection device for moving object
JP2004289386A (en) * 2003-03-20 2004-10-14 Clarion Co Ltd Image display method, image display apparatus, and image processing apparatus
JP2005138720A (en) * 2003-11-07 2005-06-02 Denso Corp Obstacle detector, obstacle detection program, and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092792A (en) * 2000-09-13 2002-03-29 Nissan Motor Co Ltd Existing pedestrian informing device and on-vehicle pedestrian detecting device
JP2002099997A (en) * 2000-09-26 2002-04-05 Mitsubishi Motors Corp Detection device for moving object
JP2004289386A (en) * 2003-03-20 2004-10-14 Clarion Co Ltd Image display method, image display apparatus, and image processing apparatus
JP2005138720A (en) * 2003-11-07 2005-06-02 Denso Corp Obstacle detector, obstacle detection program, and storage medium

Also Published As

Publication number Publication date
JP2007025947A (en) 2007-02-01

Similar Documents

Publication Publication Date Title
US7710246B2 (en) Vehicle driving assist system
JP4687160B2 (en) Perimeter monitoring device
US7436982B2 (en) Vehicle surroundings monitoring apparatus
JP3945467B2 (en) Vehicle retraction support apparatus and method
KR101498976B1 (en) Parking asistance system and parking asistance method for vehicle
US8559674B2 (en) Moving state estimating device
US8089512B2 (en) Driving support device, driving support method and computer program
KR101656162B1 (en) Method for operating a driver assistance device of a motor vehicle, driver assistance device and motor vehicle
US20070120656A1 (en) Vehicle surrounding display device
US20190276030A1 (en) Object detection apparatus
JP2013239015A (en) Parking support device, and parking support method and program
JP2007255977A (en) Object detection method and object detector
JP2001213254A (en) Side monitoring device for vehicle
JP2011118482A (en) In-vehicle device and recognition support system
JP2007034477A (en) Traveling support device for vehicle
JP2015232442A (en) Image processor and vehicle front monitoring device
JP4154980B2 (en) Moving object periphery monitoring device
JP3666332B2 (en) Pedestrian detection device
JP2007124097A (en) Apparatus for visually recognizing surrounding of vehicle
JP5951785B2 (en) Image processing apparatus and vehicle forward monitoring apparatus
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP3968271B2 (en) Vehicle periphery visual recognition device
WO2011013813A1 (en) In-vehicle device and image processing program
JP4539472B2 (en) Vehicle travel support device
JP2008026998A (en) Obstacle location calculation system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080306

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

R150 Certificate of patent or registration of utility model

Ref document number: 4539472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees