JP2008242571A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2008242571A
JP2008242571A JP2007078789A JP2007078789A JP2008242571A JP 2008242571 A JP2008242571 A JP 2008242571A JP 2007078789 A JP2007078789 A JP 2007078789A JP 2007078789 A JP2007078789 A JP 2007078789A JP 2008242571 A JP2008242571 A JP 2008242571A
Authority
JP
Japan
Prior art keywords
pedestrian
vehicle
image
processing area
stationary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007078789A
Other languages
Japanese (ja)
Inventor
Akihito Kimata
亮人 木俣
Akio Takahashi
昭夫 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2007078789A priority Critical patent/JP2008242571A/en
Publication of JP2008242571A publication Critical patent/JP2008242571A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection device for finding out a pedestrian who runs out of the shade of a static vehicle in an early stage. <P>SOLUTION: This object detection device is provided with: a camera which photographs an image in the periphery of its own vehicle within a predetermined image pickup range; a static object detection means for detecting a static vehicle 30 existing in the image pickup range based on the image photographed by the camera and the speed of its own vehicle; a processing region setting means for setting a processing region 35 which is smaller than the image pickup region at the edge of the side close to its own vehicle in the static vehicle 30; and a pedestrian detection means for judging whether or not the object picked up in the processing region 35 is a pedestrian. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、物体検出装置に関するものである。   The present invention relates to an object detection device.

車両周辺の画像をカメラで撮影し、マッチング処理等により歩行者を検出する方法が提案されている(例えば、特許文献1参照)。
画像処理により歩行者を検出する場合、検出性能を向上させる方法として、各フレームにおいて歩行者候補を検出し、その歩行者候補を数フレームにわたってトラッキング(追跡)し、所定フレーム数以上連続して同じ歩行者候補が検出された場合に、その歩行者候補を歩行者として最終的に検出する方法が知られている。
特開2003−9140号公報
A method has been proposed in which an image around a vehicle is taken with a camera and a pedestrian is detected by matching processing or the like (see, for example, Patent Document 1).
When detecting a pedestrian by image processing, as a method for improving detection performance, a pedestrian candidate is detected in each frame, the pedestrian candidate is tracked (tracked) over several frames, and is continuously the same for a predetermined number of frames or more. There is known a method of finally detecting a pedestrian candidate as a pedestrian when a pedestrian candidate is detected.
Japanese Patent Laid-Open No. 2003-9140

しかしながら、各フレームでは歩行者の全身が見える場合に歩行者候補として検出するので、数フレームにわたって歩行者候補をトラッキングする方法では、歩行者の全身が見えてから所定のフレーム間は歩行者が検出されないことになる。そのため、静止車両の陰から飛び出そうとする歩行者が存在する場合には、身体の一部が見えていたとしても、全身が見えてからのトラッキング開始となり、検出に遅れが生じるという問題がある。
なお、体の一部の情報から歩行者を判断する方法では、体全体を用いる識別方法と比べて、識別能力が低下することになる。
However, since each frame detects a pedestrian candidate when the pedestrian's entire body is visible, the method of tracking the pedestrian candidate over several frames detects the pedestrian for a predetermined frame after the pedestrian's entire body is visible. Will not be. Therefore, when there is a pedestrian who tries to jump out from the shadow of a stationary vehicle, there is a problem that even if a part of the body is visible, tracking starts after the whole body is visible, and detection is delayed. .
In the method of judging a pedestrian from information on a part of the body, the discrimination ability is lowered as compared with the discrimination method using the whole body.

そこで本発明は、物体の陰から飛び出そうとする歩行者を早期に発見することが可能な、物体検出装置の提供を課題とする。   Therefore, an object of the present invention is to provide an object detection device that can quickly find a pedestrian who is about to jump out of the shadow of an object.

上記課題を解決するために、請求項1に係る発明は、所定の撮像範囲で自車(例えば、実施形態における自車2)の周辺の画像を撮影する撮像手段(例えば、実施形態におけるカメラ5)と、前記撮像手段が撮影した画像および前記自車の速度に基づいて、前記撮像範囲に存在する静止物(例えば、実施形態における静止車両30)を検出する静止物検出手段(例えば、実施形態における静止物検出手段12)と、前記静止物における前記自車に近い側の端に、前記撮像範囲よりも小さい処理領域(例えば、実施形態における処理領域35)を設定する処理領域設定手段(例えば、実施形態における処理領域設定手段14)と、前記処理領域内で撮影された物体が歩行者(例えば、実施形態における歩行者40)であるか判断する歩行者検出手段(例えば、実施形態における歩行者検出手段16)と、を備えたことを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is directed to an imaging unit (for example, the camera 5 in the embodiment) that captures an image around the own vehicle (for example, the own vehicle 2 in the embodiment) within a predetermined imaging range. ) And an image captured by the imaging unit and the speed of the host vehicle, a stationary object detection unit (for example, the embodiment) that detects a stationary object (for example, the stationary vehicle 30 in the embodiment) that exists in the imaging range. Stationary object detecting means 12) and processing area setting means (for example, processing area 35 in the embodiment) smaller than the imaging range at the end of the stationary object closer to the vehicle. , Processing area setting means 14) in the embodiment, and pedestrian detection for determining whether the object imaged in the processing area is a pedestrian (for example, the pedestrian 40 in the embodiment) Stage (e.g., a pedestrian detecting unit 16 in the embodiment) and, characterized by comprising a.

請求項2に係る発明は、前記歩行者検出手段は、前記処理領域内で撮影された物体を歩行者として補完可能か判断する補完可否判断手段(例えば、実施形態における補完可否判断手段)を備えたことを特徴とする。   According to a second aspect of the present invention, the pedestrian detection unit includes a complementation availability determination unit (for example, a complementation availability determination unit in the embodiment) that determines whether an object photographed in the processing area can be complemented as a pedestrian. It is characterized by that.

請求項1に係る発明によれば、静止物における自車に近い側の端に処理領域を設定するので、静止物の陰から自車の進路に飛び出そうとする歩行者を確実に発見することができる。また撮像範囲よりも小さい処理領域を設定するので、演算負荷を低く抑え、飛び出そうとする歩行者を早期に発見することができる。   According to the first aspect of the present invention, since the processing area is set at the end of the stationary object that is closer to the own vehicle, it is possible to reliably find a pedestrian who is about to jump out of the stationary object in the course of the own vehicle. Can do. In addition, since a processing area smaller than the imaging range is set, the calculation load can be reduced and a pedestrian trying to jump out can be found early.

請求項2に係る発明によれば、歩行者の身体の一部が静止物の陰に隠れている場合でも、その画像中の物体を歩行者として補完することが可能になる。これにより、歩行者候補のトラッキングを早期に開始することが可能になり、物体の陰から飛び出そうとする歩行者を早期に発見することができる。   According to the invention which concerns on Claim 2, even when a part of pedestrian's body is hidden behind a stationary object, it becomes possible to complement the object in the image as a pedestrian. Thereby, it becomes possible to start tracking of a pedestrian candidate at an early stage, and a pedestrian who tries to jump out from the shadow of an object can be discovered early.

以下、本発明の実施形態につき図面を参照して説明する。
(物体検出装置)
図1は、本実施形態に係る物体検出装置の概略構成図である。本実施形態に係る物体検出装置1は、所定の撮像範囲で自車2の周辺の画像を撮影するカメラ(撮像手段)5と、カメラ5が撮影した画像および自車2の速度に基づいて、撮像範囲に存在する静止車両(静止物)を検出する静止物検出手段12と、静止車両における自車2に近い側の端に、撮像範囲よりも小さい処理領域を設定する処理領域設定手段14と、処理領域内で撮影された物体が歩行者であるか判断する歩行者検出手段16と、を備えたものである。なお、静止物検出手段12、処理領域設定手段14および歩行者検出手段16は、自車2に搭載されたコンピュータ10に構築されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Object detection device)
FIG. 1 is a schematic configuration diagram of an object detection apparatus according to the present embodiment. The object detection device 1 according to the present embodiment is based on a camera (imaging means) 5 that captures an image around the host vehicle 2 within a predetermined imaging range, an image captured by the camera 5, and the speed of the host vehicle 2. A stationary object detection means 12 for detecting a stationary vehicle (stationary object) existing in the imaging range; a processing area setting means 14 for setting a processing area smaller than the imaging range at an end of the stationary vehicle on the side close to the own vehicle 2; Pedestrian detection means 16 for determining whether an object photographed in the processing area is a pedestrian. The stationary object detection means 12, the processing area setting means 14, and the pedestrian detection means 16 are constructed in a computer 10 mounted on the host vehicle 2.

物体検出装置1は、所定の撮像範囲で自車2の前方の画像を撮影するカメラ5(ステレオカメラ5L,5R)を備えている。ステレオカメラ5L,5RはCCDカメラ等で構成され、フロントガラスの内側の天井部に取り付けられている。左側カメラ5Lは、車幅方向中央部のバックミラー近傍に配置され、右側カメラ5Rは、車幅方向右端部に配置されている。なお右側カメラ5Rを車幅方向中央部のバックミラー近傍に配置し、左側カメラ5Lを車幅方向左端部に配置してもよい。左側カメラ5Lと右側カメラ5Rとの距離は、30〜40cm程度に設定されている。   The object detection device 1 includes a camera 5 (stereo cameras 5L and 5R) that captures an image in front of the vehicle 2 within a predetermined imaging range. The stereo cameras 5L and 5R are composed of a CCD camera or the like, and are attached to the ceiling portion inside the windshield. The left camera 5L is disposed in the vicinity of the rear-view mirror at the center in the vehicle width direction, and the right camera 5R is disposed at the right end in the vehicle width direction. The right camera 5R may be disposed near the rear-view mirror in the center in the vehicle width direction, and the left camera 5L may be disposed at the left end in the vehicle width direction. The distance between the left camera 5L and the right camera 5R is set to about 30 to 40 cm.

ステレオカメラ5L,5Rが撮影した画像は、車両に搭載されたコンピュータ10に入力される。コンピュータ10には、カメラ5が撮影した画像および自車2の速度に基づいて、撮像範囲に存在する静止車両を検出する静止物検出手段12が構築されている。静止物検出手段12は、カメラ5の撮影画像を二値化処理した後に、テンプレートマッチング法等により車両を検出する。さらに、検出した車両の移動ベクトルを抽出して、当該車両が静止車両か否かを判断する。   Images taken by the stereo cameras 5L and 5R are input to the computer 10 mounted on the vehicle. The computer 10 includes a stationary object detection unit 12 that detects a stationary vehicle existing in the imaging range based on an image captured by the camera 5 and the speed of the host vehicle 2. The stationary object detection unit 12 detects a vehicle by a template matching method or the like after binarizing the captured image of the camera 5. Further, the movement vector of the detected vehicle is extracted, and it is determined whether or not the vehicle is a stationary vehicle.

また、静止車両の陰から飛び出そうとする歩行者を検出するため、検出された静止車両の近傍に処理領域を設定する処理領域設定手段14が設けられている。処理領域設定手段14は、静止車両における自車2に近い側の端に、撮像範囲よりも小さい処理領域を設定するものである。すなわち、自車の左側(走行車線)に存在する静止車両30についてはその右側端部に、自車の右側(対向車線)に存在する静止車両についてはその左側端部に、処理領域35を設定する。処理領域は矩形状とし、その大きさは歩行者の伸長および幅と同等に設定する。   Further, in order to detect a pedestrian who is about to jump out from behind a stationary vehicle, a processing region setting means 14 is provided for setting a processing region in the vicinity of the detected stationary vehicle. The processing area setting means 14 sets a processing area smaller than the imaging range at the end of the stationary vehicle on the side close to the own vehicle 2. That is, the processing area 35 is set at the right end of the stationary vehicle 30 existing on the left side (traveling lane) of the own vehicle and at the left end of the stationary vehicle existing on the right side (opposing lane) of the own vehicle. To do. The processing area is rectangular, and its size is set equal to the extension and width of the pedestrian.

また、処理領域内で撮影された物体が歩行者であるか判断する歩行者検出手段16を備えている。歩行者検出手段16は、処理領域内で撮影された物体を歩行者として補完可能か判断する補完可否判断手段17を備えている。補完可否判断手段17は、歩行者の身体の一部が静止車両の陰に隠れている場合でも、その一部を補完して歩行者の全身の画像を生成するものである。そして、このような補完が可能な場合には、処理領域内に歩行者候補が存在すると推定することができる。   Moreover, the pedestrian detection means 16 which judges whether the object image | photographed within the process area | region is a pedestrian is provided. The pedestrian detection unit 16 includes a complementation possibility determination unit 17 that determines whether an object photographed in the processing area can be complemented as a pedestrian. Even when a part of the pedestrian's body is hidden behind a stationary vehicle, the complementation propriety judging means 17 complements the part to generate an image of the whole body of the pedestrian. And when such a complement is possible, it can be estimated that a pedestrian candidate exists in a process area | region.

また歩行者検出手段16は、処理領域内の物体が補完可能な場合に、その物体が歩行者として識別可能か判断する歩行者識別手段18を備えている。歩行者識別手段18は、歩行者に対する外接四角形と同等の外接四角形が物体に対して設定される場合に、その物体を歩行者として抽出する。また歩行者候補の表面上の凹凸形状を検出し、表面上の凹凸量が相対的に大きい歩行者と、表面上の凹凸量が相対的に小さい車輪や、扉、窓、街路樹等とを識別する。歩行者として識別可能な場合には、当該画像フレームにおいて歩行者候補を検出することができる。   Moreover, the pedestrian detection means 16 is provided with the pedestrian identification means 18 which judges whether the object can be identified as a pedestrian, when the object in a process area | region can be complemented. When a circumscribed rectangle equivalent to the circumscribed rectangle for the pedestrian is set for the object, the pedestrian identifying unit 18 extracts the object as a pedestrian. It also detects the uneven shape on the surface of pedestrian candidates, and detects pedestrians with relatively large unevenness on the surface, wheels, doors, windows, street trees, etc. with relatively small unevenness on the surface. Identify. When the pedestrian can be identified, a pedestrian candidate can be detected in the image frame.

さらに歩行者検出手段16は、時間的に連続する複数の画像フレームにわたって歩行者候補をトラッキング(追跡)する。所定フレーム数以上連続して同じ歩行者候補が検出され、最新のフレームにおいて歩行者候補の全身が検出された場合に、歩行者として識別可能か最終判断する。歩行者として識別可能な場合には、その歩行者候補を歩行者として最終的に検出する。   Furthermore, the pedestrian detection means 16 tracks (tracks) a pedestrian candidate over a plurality of temporally continuous image frames. When the same pedestrian candidate is detected continuously for a predetermined number of frames or more, and the whole body of the pedestrian candidate is detected in the latest frame, it is finally determined whether it can be identified as a pedestrian. If it can be identified as a pedestrian, the pedestrian candidate is finally detected as a pedestrian.

(物体検出方法)
次に、前記物体検出装置を使用した物体検出方法について説明する。
図2は物体検出方法のフローチャートである。最初に、カメラ5により所定の撮像範囲で自車2の周辺の画像を撮影する(S10)。図3は撮影された画像の例である。
次に、静止物検出手段12により、前記撮像範囲に駐車中の車両30が存在するか判断する(S12)。車両30の有無の判断は、例えばテンプレートマッチング法によって行うことが可能である。テンプレートマッチング法は、所定形状の型紙(テンプレート)を画像上で移動させながら比較を行うことにより、所定形状の物体を検出する手法である。テンプレートとなる様々な車両形状は、予め二値化処理した上で静止物検出手段12に登録しておく。
(Object detection method)
Next, an object detection method using the object detection device will be described.
FIG. 2 is a flowchart of the object detection method. First, an image around the host vehicle 2 is taken by the camera 5 within a predetermined imaging range (S10). FIG. 3 is an example of a photographed image.
Next, the stationary object detection unit 12 determines whether there is a parked vehicle 30 in the imaging range (S12). The determination of the presence or absence of the vehicle 30 can be performed by, for example, a template matching method. The template matching method is a method for detecting an object having a predetermined shape by performing comparison while moving a pattern (template) having a predetermined shape on an image. Various vehicle shapes serving as templates are registered in the stationary object detection unit 12 after binarization processing in advance.

テンプレートマッチング法の具体的な手順として、まず画像を二値化処理する。次に、二値化処理された画像データの一部とテンプレートとを画素ごとに比較し、一致した画素数が所定数以上となった場合に、マッチングしたと判断する。このようなマッチング処理を画像データの全体について、また全てのテンプレートについて行う。なお、既存のテンプレートを拡大・縮小したものや、傾斜させたもの等についても、同様にマッチング処理を行う。そしてマッチング処理に成功した場合には、テンプレート形状の車両30が検出されたことになる。   As a specific procedure of the template matching method, first, the image is binarized. Next, a part of the binarized image data and the template are compared for each pixel, and when the number of matched pixels is equal to or greater than a predetermined number, it is determined that the matching has been performed. Such matching processing is performed for the entire image data and for all templates. Note that matching processing is performed in the same manner for an enlarged / reduced or inclined template of an existing template. If the matching process is successful, the template-shaped vehicle 30 is detected.

次に、検出された車両30と自車との相対速度により、車両30が静止車両であるか判断する。静止車両か否かの判断は、検出された車両30の移動ベクトルを抽出することによって行う。一般に、動画から物体の動きを抽出する手法の一つとして、オプティカルフローが知られている。オプティカルフローは物体30の移動ベクトル32であり、時間的に連続する2つの画像間において、同一物体の輝度変化は小さいという仮定の下で、同程度の輝度をもつ点の移動量から算出される。   Next, it is determined whether the vehicle 30 is a stationary vehicle based on the detected relative speed between the vehicle 30 and the host vehicle. The determination of whether or not the vehicle is a stationary vehicle is performed by extracting the detected movement vector of the vehicle 30. In general, an optical flow is known as one of methods for extracting a motion of an object from a moving image. The optical flow is a movement vector 32 of the object 30 and is calculated from the amount of movement of a point having the same level of luminance on the assumption that the luminance change of the same object is small between two temporally continuous images. .

一般に自車2は、画像の消失点(Focus of Expansion;以下「FOE」という。)に向かって進行する。この場合、周囲の静止物体(例えば街路樹90)のオプティカルフロー92は、FOEから湧き出すように発生する。そこで、車両30について算出したオプティカルフローがFOEから湧き出すように発生している場合に、当該車両30が静止車両であると判断することができる。
なお、ステレオカメラ5R,5Lにより撮影した画像につき、それぞれ静止車両30を検出する。なお、S12において静止車両が存在しないと判断された場合(判断がNoの場合)には、S10に戻りカメラ5で新たな画像を撮影して、静止車両の検出処理を繰り返す。
In general, the host vehicle 2 travels toward a vanishing point (Focus of Expansion; hereinafter referred to as “FOE”). In this case, the optical flow 92 of the surrounding stationary object (for example, the roadside tree 90) is generated so as to spring out from the FOE. Therefore, when the optical flow calculated for the vehicle 30 is generated so as to spring out of the FOE, it can be determined that the vehicle 30 is a stationary vehicle.
Note that the stationary vehicle 30 is detected for each of the images taken by the stereo cameras 5R and 5L. When it is determined in S12 that no stationary vehicle exists (when the determination is No), the process returns to S10, a new image is captured by the camera 5, and the stationary vehicle detection process is repeated.

次に、処理領域設定手段14により、歩行者検出処理を行うための処理領域35を設定する(S14)。後述する歩行者検出処理では、静止車両30の陰から自車の進路に飛び出そうとする歩行者を検出する。そこで、静止車両30における自車に近い側の端部に、歩行者検出処理の処理領域35を設定する。すなわち、自車の左側(走行車線)に存在する静止車両30についてはその右側端部に、自車の右側(対向車線)に存在する静止車両についてはその左側端部に、処理領域35を設定する。このように、撮像範囲よりも小さい処理領域35を設定することにより、監視対象とすべき歩行者を効率的に検出することができる。   Next, the processing area 35 for performing a pedestrian detection process is set by the processing area setting means 14 (S14). In a pedestrian detection process to be described later, a pedestrian who is about to jump out of the stationary vehicle 30 into the course of the own vehicle is detected. Therefore, a processing area 35 for pedestrian detection processing is set at the end of the stationary vehicle 30 on the side close to the own vehicle. That is, the processing area 35 is set at the right end of the stationary vehicle 30 existing on the left side (traveling lane) of the own vehicle and at the left end of the stationary vehicle existing on the right side (opposing lane) of the own vehicle. To do. Thus, by setting the processing area 35 smaller than the imaging range, it is possible to efficiently detect a pedestrian to be monitored.

処理領域35は矩形状とし、歩行者と同等の高さおよび幅に設定する。画像において、静止車両の陰に存在する歩行者40の下端座標は、静止車両の下端座標vに略等しくなるから、静止車両の下端座標−vを処理領域35の下端座標に設定する。また、処理領域35の上端座標vに加え、左端座標aおよび右端座標b(両者間の幅width)を、以下のように設定する。 The processing area 35 has a rectangular shape and is set to a height and width equivalent to those of a pedestrian. In the image, the lower end coordinate of the pedestrian 40 that is behind the stationary vehicle is substantially equal to the lower end coordinate v b of the stationary vehicle, so the lower end coordinate −v b of the stationary vehicle is set as the lower end coordinate of the processing area 35. Further, in addition to the upper end coordinate v t of the processing area 35, the left end coordinate a and the right end coordinate b (width width between both) are set as follows.

図4(a)は、処理領域の上端座標の設定方法の説明図である。自車に搭載されたカメラの路面に対する高さをhとする。そのカメラから、静止車両の陰に存在する歩行者40までの距離をLとする。そして、カメラの焦点距離をfとすれば、画像上の歩行者の下端座標(f,−v)と、現実の歩行者40の下端座標(L,−h)との相似関係から、次式が成り立つ。 FIG. 4A is an explanatory diagram of a method for setting the upper end coordinates of the processing region. Let h be the height of the camera mounted on the vehicle relative to the road surface. Let L be the distance from the camera to the pedestrian 40 behind the stationary vehicle. Then, if the focal length of the camera is f, the following relationship is obtained from the similar relationship between the lower end coordinates (f, −v b ) of the pedestrian on the image and the lower end coordinates (L, −h) of the actual pedestrian 40. The formula holds.

Figure 2008242571
これをLについて解けば、次式が得られる。
Figure 2008242571
Solving this for L yields:

Figure 2008242571
Figure 2008242571

さらに、歩行者の身長をp(例えば1.8m)とすれば、画像上の歩行者の上端座標(f,v)と、現実の歩行者40の上端座標(L,p−h)との相似関係から、次式が成り立つ。 Furthermore, if the height of the pedestrian is p (for example, 1.8 m), the upper end coordinates (f, v t ) of the pedestrian on the image and the upper end coordinates (L, ph ) of the actual pedestrian 40 From the similarity relationship, the following equation holds.

Figure 2008242571
これをvについて解き、さらに数式2を代入すれば、次式が得られる。
Figure 2008242571
Solving this with respect to v t and further substituting Equation 2 yields:

Figure 2008242571
Figure 2008242571

図4(b)は、自車がピッチングしている場合における処理領域35の上端座標の設定方法の説明図である。自車のピッチング角度θが十分に小さいと仮定すると、上述したピッチングしていない場合と同様の手順により、次式が得られる。   FIG. 4B is an explanatory diagram of a method for setting the upper end coordinates of the processing area 35 when the host vehicle is pitching. Assuming that the pitching angle θ of the host vehicle is sufficiently small, the following equation is obtained by the same procedure as that in the case where the pitching is not performed.

Figure 2008242571
以上により、処理領域35の上端座標vが設定される。
Figure 2008242571
As described above, the upper end coordinate v t of the processing area 35 is set.

一方、画像上の歩行者の幅widthと、現実の歩行者40の幅Wとの相似関係から、次式が成り立つ。   On the other hand, the following equation is established from the similar relationship between the width width of the pedestrian on the image and the width W of the actual pedestrian 40.

Figure 2008242571
これをwidthについて解き、さらに数式2を代入すれば、次式が得られる。
Figure 2008242571
Solving this for width and further substituting Equation 2 yields:

Figure 2008242571
Figure 2008242571

図3に戻り、処理領域35の幅方向の位置は、静止車両30における自車に近い側の端部を中心に設定する。すなわち、静止車両30における自車に近い側の端部のU方向(水平方向)座標をcとすれば、処理領域35の左端座標aおよび右端座標bは、次式で表される。   Returning to FIG. 3, the position of the processing region 35 in the width direction is set around the end of the stationary vehicle 30 on the side close to the own vehicle. That is, if the U direction (horizontal direction) coordinate of the end of the stationary vehicle 30 near the host vehicle is c, the left end coordinate a and the right end coordinate b of the processing region 35 are expressed by the following equations.

Figure 2008242571
以上により、処理領域35の左端座標aおよび右端座標bが設定される。
Figure 2008242571
As described above, the left end coordinate a and the right end coordinate b of the processing region 35 are set.

次に、補完可否判断手段17により、処理領域35内の画像が歩行者のサンプル画像により補完可能か判断する(S16)。上述したように、静止車両30の端部を処理領域35に設定しているので、処理領域35内の画像では、歩行者の身体の一部が静止車両30の背後に隠れている可能性がある。そこで、その一部を補完して歩行者の全身の画像を生成できるか判断する。   Next, whether or not the image in the processing area 35 can be complemented by the pedestrian sample image is judged by the complementation possibility judging means 17 (S16). As described above, since the end of the stationary vehicle 30 is set in the processing area 35, there is a possibility that a part of the pedestrian's body is hidden behind the stationary vehicle 30 in the image in the processing area 35. is there. Therefore, it is determined whether or not a part of the image can be complemented to generate an image of the whole pedestrian.

図5および図6は、処理領域内の画像の補完方法の説明図である。まず図5(a)に示す処理領域内の画像を入力画像に設定する。この入力画像では、歩行者40の下半身が静止車両30の背後に隠れている。次に図5(b)に示すように、複数の歩行者サンプル画像を用いて主成分分析(PCA)を行う。すなわち、基底画像の線形結合により入力画像に近い画像を構成する。複数の歩行者サンプル画像は、予め補完可否判断手段17に登録しておく。これにより、図5(c)に示すように、処理領域内に存在する歩行者の予測画像が生成される。   5 and 6 are explanatory diagrams of a method for complementing images in the processing area. First, an image in the processing area shown in FIG. 5A is set as an input image. In this input image, the lower body of the pedestrian 40 is hidden behind the stationary vehicle 30. Next, as shown in FIG. 5B, principal component analysis (PCA) is performed using a plurality of pedestrian sample images. That is, an image close to the input image is formed by linear combination of the base images. A plurality of pedestrian sample images are registered in advance in the complementation possibility determining means 17. Thereby, as shown in FIG.5 (c), the prediction image of the pedestrian who exists in a process area | region is produced | generated.

次に図5(d)に示すように、入力画像および予測画像を小領域に分割し、対応する小領域どうしを比較する。そして、略一致する小領域の数が所定値を超えた場合には、補完可能と判断する。すなわち、入力画像中に歩行者の全身が表れていなくても、歩行者サンプル画像の線形結合により、歩行者の隠れ部分を補完しうると判断する。この場合、入力画像の隠れ部分の補完を行う(S18)。具体的には、図5(e)に示すように、入力画像が予測画像と似ていない(略一致しない)部分を予測画像に近づける(予測画像で置換する)。そして、生成された画像を新たな入力画像として、上記処理を繰り返す。   Next, as shown in FIG. 5D, the input image and the predicted image are divided into small areas, and the corresponding small areas are compared with each other. Then, when the number of sub-regions that substantially match exceeds a predetermined value, it is determined that complementation is possible. That is, even if the pedestrian's whole body does not appear in the input image, it is determined that the hidden part of the pedestrian can be complemented by linear combination of the pedestrian sample images. In this case, the hidden part of the input image is complemented (S18). Specifically, as shown in FIG. 5E, a portion where the input image does not resemble the predicted image (substantially does not match) is brought closer to the predicted image (replaced with the predicted image). Then, the above process is repeated using the generated image as a new input image.

一方、図6(a)に示す入力画像には、歩行者が全く存在しない。この場合でも、図6(b)に示すように、基底画像の線形結合により、入力画像に近い画像を構成する。これにより、図6(c)に示す予測画像が生成される。次に図6(d)に示すように、入力画像および予測画像を小領域に分割し、対応する小領域どうしを比較する。この場合には、略一致する小領域の数が所定値を超えないので、補完不能と判断する。   On the other hand, there is no pedestrian in the input image shown in FIG. Even in this case, as shown in FIG. 6B, an image close to the input image is formed by linear combination of the base images. Thereby, the prediction image shown in FIG.6 (c) is produced | generated. Next, as shown in FIG. 6D, the input image and the predicted image are divided into small areas, and the corresponding small areas are compared with each other. In this case, since the number of small regions that substantially match does not exceed a predetermined value, it is determined that complementation is impossible.

次に、歩行者識別手段18により、補完された画像中の物体が歩行者と識別可能か判断する(S20)。その具体的な方法として、特開2005−284799号公報に記載された技術を採用することが可能である。ここでは、補完された画像に対して、歩行者を検知対象物とした特徴量算出や形状判別等の認識処理を行い、歩行者候補を抽出する。この認識処理では、例えば歩行者に対する外接四角形と同等の外接四角形が設定される場合に、その物体を歩行者候補として抽出する。   Next, the pedestrian identification unit 18 determines whether the complemented object in the image can be identified as a pedestrian (S20). As a specific method thereof, it is possible to employ a technique described in JP-A-2005-284799. Here, recognition processing such as feature amount calculation and shape discrimination using a pedestrian as a detection target is performed on the complemented image, and pedestrian candidates are extracted. In this recognition process, for example, when a circumscribed rectangle equivalent to a circumscribed rectangle for a pedestrian is set, the object is extracted as a pedestrian candidate.

さらに、歩行者の表面上の複数の適宜の位置に対して、自車からの相対距離を算出する。自車からの相対距離は、ステレオカメラ5R,5Lの画像から三角測量法によって求めてもよいし、自車にレーダを搭載して測定してもよい。ここで算出した相対距離により、歩行者の表面上の凹凸形状(例えば、凹凸量)を検出する。そして、検出した凹凸量が所定値よりも大きいか否かを判定する。これにより、表面上の凹凸量が相対的に大きい歩行者と、表面上の凹凸量が相対的に小さい車輪や、扉、窓、街路樹等とが識別される。すなわち、自車に対して正面を向く歩行者や横向きの歩行者では、左右の腕や脚や頭部等の身体の各部位に対する相対距離が相対的に大きく変化し、これらの歩行者に対して設定される外接四角形内における凹凸量が相対的に大きくなる。一方、車輪や、扉、窓、街路樹等の歩行者候補に対して設定される外接四角形内においては、凹凸量が相対的に小さく、人体に比べてより平坦な面が検出されることになる。したがって、歩行者の表面上の凹凸形状を検出することにより、歩行者と識別可能か判断することができる。そして、歩行者として識別可能な場合には、当該画像フレームにおいて歩行者候補が検出される。   Furthermore, the relative distance from the own vehicle is calculated for a plurality of appropriate positions on the surface of the pedestrian. The relative distance from the own vehicle may be obtained by triangulation from the images of the stereo cameras 5R and 5L, or may be measured by mounting a radar on the own vehicle. Based on the relative distance calculated here, an uneven shape (for example, an uneven amount) on the surface of the pedestrian is detected. And it is determined whether the detected uneven | corrugated amount is larger than predetermined value. Thereby, a pedestrian with a relatively large unevenness on the surface and a wheel, a door, a window, a roadside tree, etc. with a relatively small unevenness on the surface are identified. That is, for pedestrians facing the front of the vehicle and pedestrians facing sideways, the relative distance to each part of the body such as the left and right arms, legs, and head changes relatively greatly. The amount of unevenness in the circumscribed rectangle set as described above becomes relatively large. On the other hand, in the circumscribed rectangle set for pedestrian candidates such as wheels, doors, windows, roadside trees, etc., the amount of unevenness is relatively small, and a flatter surface than the human body is detected. Become. Therefore, it is possible to determine whether or not the pedestrian can be identified by detecting the uneven shape on the surface of the pedestrian. And when it can identify as a pedestrian, a pedestrian candidate is detected in the said image frame.

S20において歩行者と識別されなかった場合には、S10においてカメラ5により新たな画像を撮影し、上述した処理を繰り返す。
一方、S20において歩行者と識別された場合には、歩行者候補のトラッキングを行う(S22)。すなわち、時間的に連続する画像フレームで抽出された歩行者候補が、同じ歩行者候補であるか判断することにより、当該歩行者候補を追跡する。
If it is not identified as a pedestrian in S20, a new image is taken by the camera 5 in S10, and the above-described processing is repeated.
On the other hand, when a pedestrian is identified in S20, the pedestrian candidate is tracked (S22). In other words, the pedestrian candidate is tracked by determining whether the pedestrian candidates extracted in temporally continuous image frames are the same pedestrian candidates.

ところでS16では、処理領域内の画像に歩行者の全身が表れていない場合に、歩行者の隠れ部分の補完可否を判断した。そして、処理領域内に歩行者が全く現れていない場合(図6参照)には、隠れ部分がないことから補完不能と判断した。ここで、歩行者が静止車両30の陰から飛び出し、処理領域内に歩行者の全身が表れた場合にも、隠れ部分がないことから補完不能となる。すなわち、処理領域内の画像に歩行者の全身が表れている場合には、歩行者が全く表れていない場合と同様に補完不能となる。   By the way, in S16, when the pedestrian's whole body did not appear in the image in the processing region, it was determined whether or not the hidden part of the pedestrian could be complemented. When no pedestrians appear in the processing area (see FIG. 6), it is determined that complementation is impossible because there is no hidden part. Here, even when the pedestrian jumps out from the shadow of the stationary vehicle 30 and the pedestrian's whole body appears in the processing area, there is no hidden portion, and thus complementation is impossible. That is, when the pedestrian's whole body appears in the image within the processing region, it cannot be complemented as in the case where the pedestrian does not appear at all.

この場合には、S24に進んで、補完していない全身の画像で歩行者と識別可能か、最終的に判断する。この判断は、S20の歩行者識別判断と同様に行うことが可能である。処理領域内の画像に歩行者が全く表れていない場合には、S24の判断はNoになり、S10に戻って上記処理を繰り返す。
これに対して、処理領域内の画像に歩行者の全身が表れている場合には、S24の判断はYesになる。この場合には、当該歩行者候補を歩行者として最終的に検出する(S26)。
In this case, the process proceeds to S24, and finally it is determined whether or not the pedestrian can be identified from the whole body image that is not complemented. This determination can be made in the same manner as the pedestrian identification determination in S20. If no pedestrian appears in the image within the processing area, the determination in S24 is No, and the process returns to S10 and the above process is repeated.
On the other hand, if the pedestrian's whole body appears in the image within the processing area, the determination in S24 is Yes. In this case, the pedestrian candidate is finally detected as a pedestrian (S26).

以上に詳述したように、本実施形態に係る物体検出装置1は、所定の撮像範囲で自車2の周辺の画像を撮影するカメラ5と、カメラ5が撮影した画像および自車2の速度に基づいて、撮像範囲に存在する静止車両30を検出する静止物検出手段12と、静止車両30における自車2に近い側の端に、撮像範囲よりも小さい処理領域35を設定する処理領域設定手段14と、処理領域35内で撮影された物体が歩行者40であるか判断する歩行者検出手段16と、を備えたことを特徴とする。   As described in detail above, the object detection device 1 according to the present embodiment includes the camera 5 that captures an image around the vehicle 2 within a predetermined imaging range, the image captured by the camera 5, and the speed of the vehicle 2. Based on the stationary object detecting means 12 for detecting the stationary vehicle 30 existing in the imaging range, and the processing area setting for setting the processing area 35 smaller than the imaging range at the end of the stationary vehicle 30 on the side close to the own vehicle 2 It is characterized by comprising means 14 and pedestrian detection means 16 for judging whether the object photographed in the processing area 35 is a pedestrian 40 or not.

この構成によれば、静止車両30における自車2に近い側の端に処理領域35を設定するので、静止車両30の陰から自車2の進路に飛び出そうとする歩行者40を確実に発見することができる。また撮像範囲よりも小さい処理領域35を設定するので、飛び出そうとする歩行者40を早期に発見することができる。   According to this configuration, since the processing area 35 is set at the end of the stationary vehicle 30 near the own vehicle 2, the pedestrian 40 who is about to jump out of the stationary vehicle 30 into the course of the own vehicle 2 is surely found. can do. Further, since the processing area 35 smaller than the imaging range is set, the pedestrian 40 who is about to jump out can be found at an early stage.

また歩行者検出手段16は、処理領域35内で撮影された物体を歩行者として補完可能か判断する補完可否判断手段17を備えたことを特徴とする。
この構成によれば、歩行者40の身体の一部が静止車両30の陰に隠れている場合でも、その画像中の物体を歩行者として補完することが可能になる。これにより、歩行者候補のトラッキングを早期に開始することが可能になり、静止車両の陰から飛び出そうとする歩行者を早期に発見することができる。
Further, the pedestrian detection means 16 includes a complementation possibility judgment means 17 that judges whether an object photographed in the processing area 35 can be complemented as a pedestrian.
According to this configuration, even when a part of the body of the pedestrian 40 is hidden behind the stationary vehicle 30, an object in the image can be complemented as a pedestrian. Thereby, it becomes possible to start tracking of a pedestrian candidate at an early stage, and a pedestrian who is about to jump out from behind a stationary vehicle can be discovered at an early stage.

また歩行者検出手段16は、時間的に連続する複数の画像の処理領域35において歩行者候補が検出された場合に、歩行者が存在すると判断することを特徴とする。
このように歩行者候補のトラッキングを行うことにより、歩行者の発見精度を向上させることができる。
The pedestrian detection means 16 is characterized by determining that a pedestrian exists when a pedestrian candidate is detected in a processing region 35 of a plurality of temporally continuous images.
By tracking pedestrian candidates in this way, pedestrian discovery accuracy can be improved.

また歩行者検出手段16は、最新の処理領域35の画像において歩行者40の全身が検出された場合に、歩行者40が存在すると判断することを特徴とする。
このように、最終的に歩行者40の全身が検出されてから歩行者が存在すると判断することにより、歩行者40の発見精度を向上させることができる。
Moreover, the pedestrian detection means 16 is characterized by determining that the pedestrian 40 exists when the whole body of the pedestrian 40 is detected in the latest image of the processing area 35.
Thus, the detection accuracy of the pedestrian 40 can be improved by determining that the pedestrian exists after the whole body of the pedestrian 40 is finally detected.

なお、この発明は上述した実施形態に限られるものではない。
例えば、実施形態では静止車両の陰から飛び出そうとする歩行者を検出したが、静止車両以外の静止物体を認識し、その陰から飛び出そうとする歩行者を検出してもよい。また静止車両の検出方法として、実施形態ではテンプレートマッチング法を採用したが、これ以外の手法を採用することも可能である。また、実施形態における処理領域の設定範囲は一例であり、異なる範囲を処理領域に設定してもよい。
The present invention is not limited to the embodiment described above.
For example, in the embodiment, a pedestrian who tries to jump out from behind a stationary vehicle is detected, but a stationary object other than the stationary vehicle may be recognized, and a pedestrian trying to jump out from the shade may be detected. Further, as a stationary vehicle detection method, the template matching method is employed in the embodiment, but other methods can also be employed. In addition, the setting range of the processing area in the embodiment is an example, and a different range may be set as the processing area.

実施形態に係る物体検出装置の概略構成図である。It is a schematic block diagram of the object detection apparatus which concerns on embodiment. 物体検出方法のフローチャートである。It is a flowchart of an object detection method. 撮影された画像の例である。It is an example of the image | photographed image. 処理領域の上端座標の設定方法の説明図である。It is explanatory drawing of the setting method of the upper end coordinate of a process area. 処理領域内の画像の補完方法の説明図である。It is explanatory drawing of the complement method of the image in a process area. 処理領域内の画像の補完方法の説明図である。It is explanatory drawing of the complement method of the image in a process area.

符号の説明Explanation of symbols

1…物体検出装置 2…車両 5…カメラ(撮像手段) 12…静止物検出手段 14…処理領域設定手段 16…歩行者検出手段 30…静止車両(静止物) 35…処理領域 40…歩行者   DESCRIPTION OF SYMBOLS 1 ... Object detection apparatus 2 ... Vehicle 5 ... Camera (imaging means) 12 ... Stationary object detection means 14 ... Processing area setting means 16 ... Pedestrian detection means 30 ... Stationary vehicle (stationary object) 35 ... Processing area 40 ... Pedestrian

Claims (2)

所定の撮像範囲で自車の周辺の画像を撮影する撮像手段と、
前記撮像手段が撮影した画像および前記自車の速度に基づいて、前記撮像範囲に存在する静止物を検出する静止物検出手段と、
前記静止物における前記自車に近い側の端に、前記撮像範囲よりも小さい処理領域を設定する処理領域設定手段と、
前記処理領域内で撮影された物体が歩行者であるか判断する歩行者検出手段と、
を備えたことを特徴とする物体検出装置。
Imaging means for capturing an image of the periphery of the vehicle within a predetermined imaging range;
A stationary object detection means for detecting a stationary object present in the imaging range based on an image captured by the imaging means and the speed of the host vehicle;
Processing area setting means for setting a processing area smaller than the imaging range at an end of the stationary object on the side close to the own vehicle;
Pedestrian detection means for determining whether an object photographed in the processing area is a pedestrian;
An object detection apparatus comprising:
前記歩行者検出手段は、前記処理領域内で撮影された物体を歩行者として補完可能か判断する補完可否判断手段を備えたことを特徴とする請求項1に記載の物体検出装置。   The object detection apparatus according to claim 1, wherein the pedestrian detection unit includes a complementation possibility determination unit that determines whether an object photographed in the processing region can be complemented as a pedestrian.
JP2007078789A 2007-03-26 2007-03-26 Object detection device Withdrawn JP2008242571A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007078789A JP2008242571A (en) 2007-03-26 2007-03-26 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007078789A JP2008242571A (en) 2007-03-26 2007-03-26 Object detection device

Publications (1)

Publication Number Publication Date
JP2008242571A true JP2008242571A (en) 2008-10-09

Family

ID=39913883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007078789A Withdrawn JP2008242571A (en) 2007-03-26 2007-03-26 Object detection device

Country Status (1)

Country Link
JP (1) JP2008242571A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010218246A (en) * 2009-03-17 2010-09-30 Toyota Motor Corp Object identification device
JP2011150633A (en) * 2010-01-25 2011-08-04 Toyota Central R&D Labs Inc Object detection device and program
JP2013117772A (en) * 2011-12-01 2013-06-13 Secom Co Ltd Image monitoring device
JP2013182371A (en) * 2012-03-01 2013-09-12 Nissan Motor Co Ltd Jumping-out detecting device
JP2013210988A (en) * 2012-03-01 2013-10-10 Nissan Motor Co Ltd Apparatus for detecting object that appears suddenly
WO2013179588A1 (en) * 2012-05-31 2013-12-05 株式会社デンソー Human detection apparatus
JP2014035560A (en) * 2012-08-07 2014-02-24 Nissan Motor Co Ltd Jump-to-street detection device
JP2014109943A (en) * 2012-12-03 2014-06-12 Denso Corp Target detection device
JP2014109944A (en) * 2012-12-03 2014-06-12 Denso Corp Target detection device
WO2014132729A1 (en) * 2013-03-01 2014-09-04 日立オートモティブシステムズ株式会社 Stereo camera device
KR101554892B1 (en) 2012-12-03 2015-09-22 가부시키가이샤 덴소 Target detecting device for avoiding collision between vehicle and target captured by sensor mounted to the vehicle
JP2016024602A (en) * 2014-07-18 2016-02-08 日立オートモティブシステムズ株式会社 Object detection apparatus and vehicle control system using the same
CN104364821B (en) * 2012-05-31 2016-11-30 株式会社电装 People detects device
WO2017073520A1 (en) * 2015-10-26 2017-05-04 三郎 山内 Object recognition system, object recognition method, program, and computer storage medium
JP2017220178A (en) * 2016-06-10 2017-12-14 株式会社Soken Substance detection device and substance detection method
EP3188156A4 (en) * 2014-08-26 2018-06-06 Hitachi Automotive Systems, Ltd. Object recognition device and vehicle control system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010218246A (en) * 2009-03-17 2010-09-30 Toyota Motor Corp Object identification device
JP2011150633A (en) * 2010-01-25 2011-08-04 Toyota Central R&D Labs Inc Object detection device and program
JP2013117772A (en) * 2011-12-01 2013-06-13 Secom Co Ltd Image monitoring device
JP2013182371A (en) * 2012-03-01 2013-09-12 Nissan Motor Co Ltd Jumping-out detecting device
JP2013210988A (en) * 2012-03-01 2013-10-10 Nissan Motor Co Ltd Apparatus for detecting object that appears suddenly
CN104364821A (en) * 2012-05-31 2015-02-18 株式会社电装 Human detection apparatus
WO2013179588A1 (en) * 2012-05-31 2013-12-05 株式会社デンソー Human detection apparatus
JP2013250734A (en) * 2012-05-31 2013-12-12 Denso Corp Person detection device
CN104364821B (en) * 2012-05-31 2016-11-30 株式会社电装 People detects device
US9235778B2 (en) 2012-05-31 2016-01-12 Denso Corporation Human detection apparatus
JP2014035560A (en) * 2012-08-07 2014-02-24 Nissan Motor Co Ltd Jump-to-street detection device
US9575176B2 (en) 2012-12-03 2017-02-21 Denso Corporation Target detecting device for avoiding collision between vehicle and target captured by sensor mounted to the vehicle
JP2014109944A (en) * 2012-12-03 2014-06-12 Denso Corp Target detection device
KR101554892B1 (en) 2012-12-03 2015-09-22 가부시키가이샤 덴소 Target detecting device for avoiding collision between vehicle and target captured by sensor mounted to the vehicle
US10429502B2 (en) 2012-12-03 2019-10-01 Denso Corporation Target detecting device for avoiding collision between vehicle and target captured by sensor mounted to the vehicle
JP2014109943A (en) * 2012-12-03 2014-06-12 Denso Corp Target detection device
US20160012283A1 (en) * 2013-03-01 2016-01-14 Hitachi Automotive Systems, Ltd. Stereoscopic Camera Apparatus
JP2014170298A (en) * 2013-03-01 2014-09-18 Hitachi Automotive Systems Ltd Stereo camera device
US9697421B2 (en) 2013-03-01 2017-07-04 Hitachi Automotive Systems, Ltd. Stereoscopic camera apparatus
WO2014132729A1 (en) * 2013-03-01 2014-09-04 日立オートモティブシステムズ株式会社 Stereo camera device
JP2016024602A (en) * 2014-07-18 2016-02-08 日立オートモティブシステムズ株式会社 Object detection apparatus and vehicle control system using the same
EP3188156A4 (en) * 2014-08-26 2018-06-06 Hitachi Automotive Systems, Ltd. Object recognition device and vehicle control system
US10246038B2 (en) 2014-08-26 2019-04-02 Hitachi Automotive Systems, Ltd. Object recognition device and vehicle control system
WO2017073520A1 (en) * 2015-10-26 2017-05-04 三郎 山内 Object recognition system, object recognition method, program, and computer storage medium
JP2017220178A (en) * 2016-06-10 2017-12-14 株式会社Soken Substance detection device and substance detection method

Similar Documents

Publication Publication Date Title
JP2008242571A (en) Object detection device
US10940818B2 (en) Pedestrian collision warning system
Kuo et al. Vision-based vehicle detection for a driver assistance system
US9251708B2 (en) Forward collision warning trap and pedestrian advanced warning system
JP5407898B2 (en) Object detection apparatus and program
US9047518B2 (en) Method for the detection and tracking of lane markings
JP4203512B2 (en) Vehicle periphery monitoring device
US9619895B2 (en) Image processing method of vehicle camera and image processing apparatus using the same
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
JP6358552B2 (en) Image recognition apparatus and image recognition method
JP2003502745A (en) A method for detecting objects near road vehicles up to a considerable distance
US10318824B2 (en) Algorithm to extend detecting range for AVM stop line detection
JP2007156626A (en) Object type determination device and object type determination method
KR102069843B1 (en) Apparatus amd method for tracking vehicle
JP2003084064A (en) Device and method for recognizing vehicle in front side
JP2006350699A (en) Image processor and image processing method
JP2016206721A (en) Road mark detection apparatus and road mark detection method
JP3868915B2 (en) Forward monitoring apparatus and method
JP4969359B2 (en) Moving object recognition device
KR20160126254A (en) System for detecting road area
JP4754434B2 (en) Road surface estimation device
JP2007199932A (en) Image processor and its method
JP2000048183A (en) Traveling lane recognizing device
JP2009193130A (en) Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
US9811744B2 (en) Fast and robust stop line detector

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100601