JP2008242571A - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP2008242571A JP2008242571A JP2007078789A JP2007078789A JP2008242571A JP 2008242571 A JP2008242571 A JP 2008242571A JP 2007078789 A JP2007078789 A JP 2007078789A JP 2007078789 A JP2007078789 A JP 2007078789A JP 2008242571 A JP2008242571 A JP 2008242571A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- vehicle
- image
- processing area
- stationary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、物体検出装置に関するものである。 The present invention relates to an object detection device.
車両周辺の画像をカメラで撮影し、マッチング処理等により歩行者を検出する方法が提案されている(例えば、特許文献1参照)。
画像処理により歩行者を検出する場合、検出性能を向上させる方法として、各フレームにおいて歩行者候補を検出し、その歩行者候補を数フレームにわたってトラッキング(追跡)し、所定フレーム数以上連続して同じ歩行者候補が検出された場合に、その歩行者候補を歩行者として最終的に検出する方法が知られている。
When detecting a pedestrian by image processing, as a method for improving detection performance, a pedestrian candidate is detected in each frame, the pedestrian candidate is tracked (tracked) over several frames, and is continuously the same for a predetermined number of frames or more. There is known a method of finally detecting a pedestrian candidate as a pedestrian when a pedestrian candidate is detected.
しかしながら、各フレームでは歩行者の全身が見える場合に歩行者候補として検出するので、数フレームにわたって歩行者候補をトラッキングする方法では、歩行者の全身が見えてから所定のフレーム間は歩行者が検出されないことになる。そのため、静止車両の陰から飛び出そうとする歩行者が存在する場合には、身体の一部が見えていたとしても、全身が見えてからのトラッキング開始となり、検出に遅れが生じるという問題がある。
なお、体の一部の情報から歩行者を判断する方法では、体全体を用いる識別方法と比べて、識別能力が低下することになる。
However, since each frame detects a pedestrian candidate when the pedestrian's entire body is visible, the method of tracking the pedestrian candidate over several frames detects the pedestrian for a predetermined frame after the pedestrian's entire body is visible. Will not be. Therefore, when there is a pedestrian who tries to jump out from the shadow of a stationary vehicle, there is a problem that even if a part of the body is visible, tracking starts after the whole body is visible, and detection is delayed. .
In the method of judging a pedestrian from information on a part of the body, the discrimination ability is lowered as compared with the discrimination method using the whole body.
そこで本発明は、物体の陰から飛び出そうとする歩行者を早期に発見することが可能な、物体検出装置の提供を課題とする。 Therefore, an object of the present invention is to provide an object detection device that can quickly find a pedestrian who is about to jump out of the shadow of an object.
上記課題を解決するために、請求項1に係る発明は、所定の撮像範囲で自車(例えば、実施形態における自車2)の周辺の画像を撮影する撮像手段(例えば、実施形態におけるカメラ5)と、前記撮像手段が撮影した画像および前記自車の速度に基づいて、前記撮像範囲に存在する静止物(例えば、実施形態における静止車両30)を検出する静止物検出手段(例えば、実施形態における静止物検出手段12)と、前記静止物における前記自車に近い側の端に、前記撮像範囲よりも小さい処理領域(例えば、実施形態における処理領域35)を設定する処理領域設定手段(例えば、実施形態における処理領域設定手段14)と、前記処理領域内で撮影された物体が歩行者(例えば、実施形態における歩行者40)であるか判断する歩行者検出手段(例えば、実施形態における歩行者検出手段16)と、を備えたことを特徴とする。
In order to solve the above-mentioned problem, the invention according to
請求項2に係る発明は、前記歩行者検出手段は、前記処理領域内で撮影された物体を歩行者として補完可能か判断する補完可否判断手段(例えば、実施形態における補完可否判断手段)を備えたことを特徴とする。 According to a second aspect of the present invention, the pedestrian detection unit includes a complementation availability determination unit (for example, a complementation availability determination unit in the embodiment) that determines whether an object photographed in the processing area can be complemented as a pedestrian. It is characterized by that.
請求項1に係る発明によれば、静止物における自車に近い側の端に処理領域を設定するので、静止物の陰から自車の進路に飛び出そうとする歩行者を確実に発見することができる。また撮像範囲よりも小さい処理領域を設定するので、演算負荷を低く抑え、飛び出そうとする歩行者を早期に発見することができる。 According to the first aspect of the present invention, since the processing area is set at the end of the stationary object that is closer to the own vehicle, it is possible to reliably find a pedestrian who is about to jump out of the stationary object in the course of the own vehicle. Can do. In addition, since a processing area smaller than the imaging range is set, the calculation load can be reduced and a pedestrian trying to jump out can be found early.
請求項2に係る発明によれば、歩行者の身体の一部が静止物の陰に隠れている場合でも、その画像中の物体を歩行者として補完することが可能になる。これにより、歩行者候補のトラッキングを早期に開始することが可能になり、物体の陰から飛び出そうとする歩行者を早期に発見することができる。
According to the invention which concerns on
以下、本発明の実施形態につき図面を参照して説明する。
(物体検出装置)
図1は、本実施形態に係る物体検出装置の概略構成図である。本実施形態に係る物体検出装置1は、所定の撮像範囲で自車2の周辺の画像を撮影するカメラ(撮像手段)5と、カメラ5が撮影した画像および自車2の速度に基づいて、撮像範囲に存在する静止車両(静止物)を検出する静止物検出手段12と、静止車両における自車2に近い側の端に、撮像範囲よりも小さい処理領域を設定する処理領域設定手段14と、処理領域内で撮影された物体が歩行者であるか判断する歩行者検出手段16と、を備えたものである。なお、静止物検出手段12、処理領域設定手段14および歩行者検出手段16は、自車2に搭載されたコンピュータ10に構築されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Object detection device)
FIG. 1 is a schematic configuration diagram of an object detection apparatus according to the present embodiment. The
物体検出装置1は、所定の撮像範囲で自車2の前方の画像を撮影するカメラ5(ステレオカメラ5L,5R)を備えている。ステレオカメラ5L,5RはCCDカメラ等で構成され、フロントガラスの内側の天井部に取り付けられている。左側カメラ5Lは、車幅方向中央部のバックミラー近傍に配置され、右側カメラ5Rは、車幅方向右端部に配置されている。なお右側カメラ5Rを車幅方向中央部のバックミラー近傍に配置し、左側カメラ5Lを車幅方向左端部に配置してもよい。左側カメラ5Lと右側カメラ5Rとの距離は、30〜40cm程度に設定されている。
The
ステレオカメラ5L,5Rが撮影した画像は、車両に搭載されたコンピュータ10に入力される。コンピュータ10には、カメラ5が撮影した画像および自車2の速度に基づいて、撮像範囲に存在する静止車両を検出する静止物検出手段12が構築されている。静止物検出手段12は、カメラ5の撮影画像を二値化処理した後に、テンプレートマッチング法等により車両を検出する。さらに、検出した車両の移動ベクトルを抽出して、当該車両が静止車両か否かを判断する。
Images taken by the
また、静止車両の陰から飛び出そうとする歩行者を検出するため、検出された静止車両の近傍に処理領域を設定する処理領域設定手段14が設けられている。処理領域設定手段14は、静止車両における自車2に近い側の端に、撮像範囲よりも小さい処理領域を設定するものである。すなわち、自車の左側(走行車線)に存在する静止車両30についてはその右側端部に、自車の右側(対向車線)に存在する静止車両についてはその左側端部に、処理領域35を設定する。処理領域は矩形状とし、その大きさは歩行者の伸長および幅と同等に設定する。
Further, in order to detect a pedestrian who is about to jump out from behind a stationary vehicle, a processing region setting means 14 is provided for setting a processing region in the vicinity of the detected stationary vehicle. The processing area setting means 14 sets a processing area smaller than the imaging range at the end of the stationary vehicle on the side close to the
また、処理領域内で撮影された物体が歩行者であるか判断する歩行者検出手段16を備えている。歩行者検出手段16は、処理領域内で撮影された物体を歩行者として補完可能か判断する補完可否判断手段17を備えている。補完可否判断手段17は、歩行者の身体の一部が静止車両の陰に隠れている場合でも、その一部を補完して歩行者の全身の画像を生成するものである。そして、このような補完が可能な場合には、処理領域内に歩行者候補が存在すると推定することができる。
Moreover, the pedestrian detection means 16 which judges whether the object image | photographed within the process area | region is a pedestrian is provided. The
また歩行者検出手段16は、処理領域内の物体が補完可能な場合に、その物体が歩行者として識別可能か判断する歩行者識別手段18を備えている。歩行者識別手段18は、歩行者に対する外接四角形と同等の外接四角形が物体に対して設定される場合に、その物体を歩行者として抽出する。また歩行者候補の表面上の凹凸形状を検出し、表面上の凹凸量が相対的に大きい歩行者と、表面上の凹凸量が相対的に小さい車輪や、扉、窓、街路樹等とを識別する。歩行者として識別可能な場合には、当該画像フレームにおいて歩行者候補を検出することができる。
Moreover, the pedestrian detection means 16 is provided with the pedestrian identification means 18 which judges whether the object can be identified as a pedestrian, when the object in a process area | region can be complemented. When a circumscribed rectangle equivalent to the circumscribed rectangle for the pedestrian is set for the object, the
さらに歩行者検出手段16は、時間的に連続する複数の画像フレームにわたって歩行者候補をトラッキング(追跡)する。所定フレーム数以上連続して同じ歩行者候補が検出され、最新のフレームにおいて歩行者候補の全身が検出された場合に、歩行者として識別可能か最終判断する。歩行者として識別可能な場合には、その歩行者候補を歩行者として最終的に検出する。 Furthermore, the pedestrian detection means 16 tracks (tracks) a pedestrian candidate over a plurality of temporally continuous image frames. When the same pedestrian candidate is detected continuously for a predetermined number of frames or more, and the whole body of the pedestrian candidate is detected in the latest frame, it is finally determined whether it can be identified as a pedestrian. If it can be identified as a pedestrian, the pedestrian candidate is finally detected as a pedestrian.
(物体検出方法)
次に、前記物体検出装置を使用した物体検出方法について説明する。
図2は物体検出方法のフローチャートである。最初に、カメラ5により所定の撮像範囲で自車2の周辺の画像を撮影する(S10)。図3は撮影された画像の例である。
次に、静止物検出手段12により、前記撮像範囲に駐車中の車両30が存在するか判断する(S12)。車両30の有無の判断は、例えばテンプレートマッチング法によって行うことが可能である。テンプレートマッチング法は、所定形状の型紙(テンプレート)を画像上で移動させながら比較を行うことにより、所定形状の物体を検出する手法である。テンプレートとなる様々な車両形状は、予め二値化処理した上で静止物検出手段12に登録しておく。
(Object detection method)
Next, an object detection method using the object detection device will be described.
FIG. 2 is a flowchart of the object detection method. First, an image around the
Next, the stationary
テンプレートマッチング法の具体的な手順として、まず画像を二値化処理する。次に、二値化処理された画像データの一部とテンプレートとを画素ごとに比較し、一致した画素数が所定数以上となった場合に、マッチングしたと判断する。このようなマッチング処理を画像データの全体について、また全てのテンプレートについて行う。なお、既存のテンプレートを拡大・縮小したものや、傾斜させたもの等についても、同様にマッチング処理を行う。そしてマッチング処理に成功した場合には、テンプレート形状の車両30が検出されたことになる。
As a specific procedure of the template matching method, first, the image is binarized. Next, a part of the binarized image data and the template are compared for each pixel, and when the number of matched pixels is equal to or greater than a predetermined number, it is determined that the matching has been performed. Such matching processing is performed for the entire image data and for all templates. Note that matching processing is performed in the same manner for an enlarged / reduced or inclined template of an existing template. If the matching process is successful, the template-shaped
次に、検出された車両30と自車との相対速度により、車両30が静止車両であるか判断する。静止車両か否かの判断は、検出された車両30の移動ベクトルを抽出することによって行う。一般に、動画から物体の動きを抽出する手法の一つとして、オプティカルフローが知られている。オプティカルフローは物体30の移動ベクトル32であり、時間的に連続する2つの画像間において、同一物体の輝度変化は小さいという仮定の下で、同程度の輝度をもつ点の移動量から算出される。
Next, it is determined whether the
一般に自車2は、画像の消失点(Focus of Expansion;以下「FOE」という。)に向かって進行する。この場合、周囲の静止物体(例えば街路樹90)のオプティカルフロー92は、FOEから湧き出すように発生する。そこで、車両30について算出したオプティカルフローがFOEから湧き出すように発生している場合に、当該車両30が静止車両であると判断することができる。
なお、ステレオカメラ5R,5Lにより撮影した画像につき、それぞれ静止車両30を検出する。なお、S12において静止車両が存在しないと判断された場合(判断がNoの場合)には、S10に戻りカメラ5で新たな画像を撮影して、静止車両の検出処理を繰り返す。
In general, the
Note that the
次に、処理領域設定手段14により、歩行者検出処理を行うための処理領域35を設定する(S14)。後述する歩行者検出処理では、静止車両30の陰から自車の進路に飛び出そうとする歩行者を検出する。そこで、静止車両30における自車に近い側の端部に、歩行者検出処理の処理領域35を設定する。すなわち、自車の左側(走行車線)に存在する静止車両30についてはその右側端部に、自車の右側(対向車線)に存在する静止車両についてはその左側端部に、処理領域35を設定する。このように、撮像範囲よりも小さい処理領域35を設定することにより、監視対象とすべき歩行者を効率的に検出することができる。
Next, the
処理領域35は矩形状とし、歩行者と同等の高さおよび幅に設定する。画像において、静止車両の陰に存在する歩行者40の下端座標は、静止車両の下端座標vbに略等しくなるから、静止車両の下端座標−vbを処理領域35の下端座標に設定する。また、処理領域35の上端座標vtに加え、左端座標aおよび右端座標b(両者間の幅width)を、以下のように設定する。
The
図4(a)は、処理領域の上端座標の設定方法の説明図である。自車に搭載されたカメラの路面に対する高さをhとする。そのカメラから、静止車両の陰に存在する歩行者40までの距離をLとする。そして、カメラの焦点距離をfとすれば、画像上の歩行者の下端座標(f,−vb)と、現実の歩行者40の下端座標(L,−h)との相似関係から、次式が成り立つ。
FIG. 4A is an explanatory diagram of a method for setting the upper end coordinates of the processing region. Let h be the height of the camera mounted on the vehicle relative to the road surface. Let L be the distance from the camera to the
さらに、歩行者の身長をp(例えば1.8m)とすれば、画像上の歩行者の上端座標(f,vt)と、現実の歩行者40の上端座標(L,p−h)との相似関係から、次式が成り立つ。
Furthermore, if the height of the pedestrian is p (for example, 1.8 m), the upper end coordinates (f, v t ) of the pedestrian on the image and the upper end coordinates (L, ph ) of the
図4(b)は、自車がピッチングしている場合における処理領域35の上端座標の設定方法の説明図である。自車のピッチング角度θが十分に小さいと仮定すると、上述したピッチングしていない場合と同様の手順により、次式が得られる。
FIG. 4B is an explanatory diagram of a method for setting the upper end coordinates of the
一方、画像上の歩行者の幅widthと、現実の歩行者40の幅Wとの相似関係から、次式が成り立つ。
On the other hand, the following equation is established from the similar relationship between the width width of the pedestrian on the image and the width W of the
図3に戻り、処理領域35の幅方向の位置は、静止車両30における自車に近い側の端部を中心に設定する。すなわち、静止車両30における自車に近い側の端部のU方向(水平方向)座標をcとすれば、処理領域35の左端座標aおよび右端座標bは、次式で表される。
Returning to FIG. 3, the position of the
次に、補完可否判断手段17により、処理領域35内の画像が歩行者のサンプル画像により補完可能か判断する(S16)。上述したように、静止車両30の端部を処理領域35に設定しているので、処理領域35内の画像では、歩行者の身体の一部が静止車両30の背後に隠れている可能性がある。そこで、その一部を補完して歩行者の全身の画像を生成できるか判断する。
Next, whether or not the image in the
図5および図6は、処理領域内の画像の補完方法の説明図である。まず図5(a)に示す処理領域内の画像を入力画像に設定する。この入力画像では、歩行者40の下半身が静止車両30の背後に隠れている。次に図5(b)に示すように、複数の歩行者サンプル画像を用いて主成分分析(PCA)を行う。すなわち、基底画像の線形結合により入力画像に近い画像を構成する。複数の歩行者サンプル画像は、予め補完可否判断手段17に登録しておく。これにより、図5(c)に示すように、処理領域内に存在する歩行者の予測画像が生成される。
5 and 6 are explanatory diagrams of a method for complementing images in the processing area. First, an image in the processing area shown in FIG. 5A is set as an input image. In this input image, the lower body of the
次に図5(d)に示すように、入力画像および予測画像を小領域に分割し、対応する小領域どうしを比較する。そして、略一致する小領域の数が所定値を超えた場合には、補完可能と判断する。すなわち、入力画像中に歩行者の全身が表れていなくても、歩行者サンプル画像の線形結合により、歩行者の隠れ部分を補完しうると判断する。この場合、入力画像の隠れ部分の補完を行う(S18)。具体的には、図5(e)に示すように、入力画像が予測画像と似ていない(略一致しない)部分を予測画像に近づける(予測画像で置換する)。そして、生成された画像を新たな入力画像として、上記処理を繰り返す。 Next, as shown in FIG. 5D, the input image and the predicted image are divided into small areas, and the corresponding small areas are compared with each other. Then, when the number of sub-regions that substantially match exceeds a predetermined value, it is determined that complementation is possible. That is, even if the pedestrian's whole body does not appear in the input image, it is determined that the hidden part of the pedestrian can be complemented by linear combination of the pedestrian sample images. In this case, the hidden part of the input image is complemented (S18). Specifically, as shown in FIG. 5E, a portion where the input image does not resemble the predicted image (substantially does not match) is brought closer to the predicted image (replaced with the predicted image). Then, the above process is repeated using the generated image as a new input image.
一方、図6(a)に示す入力画像には、歩行者が全く存在しない。この場合でも、図6(b)に示すように、基底画像の線形結合により、入力画像に近い画像を構成する。これにより、図6(c)に示す予測画像が生成される。次に図6(d)に示すように、入力画像および予測画像を小領域に分割し、対応する小領域どうしを比較する。この場合には、略一致する小領域の数が所定値を超えないので、補完不能と判断する。 On the other hand, there is no pedestrian in the input image shown in FIG. Even in this case, as shown in FIG. 6B, an image close to the input image is formed by linear combination of the base images. Thereby, the prediction image shown in FIG.6 (c) is produced | generated. Next, as shown in FIG. 6D, the input image and the predicted image are divided into small areas, and the corresponding small areas are compared with each other. In this case, since the number of small regions that substantially match does not exceed a predetermined value, it is determined that complementation is impossible.
次に、歩行者識別手段18により、補完された画像中の物体が歩行者と識別可能か判断する(S20)。その具体的な方法として、特開2005−284799号公報に記載された技術を採用することが可能である。ここでは、補完された画像に対して、歩行者を検知対象物とした特徴量算出や形状判別等の認識処理を行い、歩行者候補を抽出する。この認識処理では、例えば歩行者に対する外接四角形と同等の外接四角形が設定される場合に、その物体を歩行者候補として抽出する。
Next, the
さらに、歩行者の表面上の複数の適宜の位置に対して、自車からの相対距離を算出する。自車からの相対距離は、ステレオカメラ5R,5Lの画像から三角測量法によって求めてもよいし、自車にレーダを搭載して測定してもよい。ここで算出した相対距離により、歩行者の表面上の凹凸形状(例えば、凹凸量)を検出する。そして、検出した凹凸量が所定値よりも大きいか否かを判定する。これにより、表面上の凹凸量が相対的に大きい歩行者と、表面上の凹凸量が相対的に小さい車輪や、扉、窓、街路樹等とが識別される。すなわち、自車に対して正面を向く歩行者や横向きの歩行者では、左右の腕や脚や頭部等の身体の各部位に対する相対距離が相対的に大きく変化し、これらの歩行者に対して設定される外接四角形内における凹凸量が相対的に大きくなる。一方、車輪や、扉、窓、街路樹等の歩行者候補に対して設定される外接四角形内においては、凹凸量が相対的に小さく、人体に比べてより平坦な面が検出されることになる。したがって、歩行者の表面上の凹凸形状を検出することにより、歩行者と識別可能か判断することができる。そして、歩行者として識別可能な場合には、当該画像フレームにおいて歩行者候補が検出される。
Furthermore, the relative distance from the own vehicle is calculated for a plurality of appropriate positions on the surface of the pedestrian. The relative distance from the own vehicle may be obtained by triangulation from the images of the
S20において歩行者と識別されなかった場合には、S10においてカメラ5により新たな画像を撮影し、上述した処理を繰り返す。
一方、S20において歩行者と識別された場合には、歩行者候補のトラッキングを行う(S22)。すなわち、時間的に連続する画像フレームで抽出された歩行者候補が、同じ歩行者候補であるか判断することにより、当該歩行者候補を追跡する。
If it is not identified as a pedestrian in S20, a new image is taken by the
On the other hand, when a pedestrian is identified in S20, the pedestrian candidate is tracked (S22). In other words, the pedestrian candidate is tracked by determining whether the pedestrian candidates extracted in temporally continuous image frames are the same pedestrian candidates.
ところでS16では、処理領域内の画像に歩行者の全身が表れていない場合に、歩行者の隠れ部分の補完可否を判断した。そして、処理領域内に歩行者が全く現れていない場合(図6参照)には、隠れ部分がないことから補完不能と判断した。ここで、歩行者が静止車両30の陰から飛び出し、処理領域内に歩行者の全身が表れた場合にも、隠れ部分がないことから補完不能となる。すなわち、処理領域内の画像に歩行者の全身が表れている場合には、歩行者が全く表れていない場合と同様に補完不能となる。
By the way, in S16, when the pedestrian's whole body did not appear in the image in the processing region, it was determined whether or not the hidden part of the pedestrian could be complemented. When no pedestrians appear in the processing area (see FIG. 6), it is determined that complementation is impossible because there is no hidden part. Here, even when the pedestrian jumps out from the shadow of the
この場合には、S24に進んで、補完していない全身の画像で歩行者と識別可能か、最終的に判断する。この判断は、S20の歩行者識別判断と同様に行うことが可能である。処理領域内の画像に歩行者が全く表れていない場合には、S24の判断はNoになり、S10に戻って上記処理を繰り返す。
これに対して、処理領域内の画像に歩行者の全身が表れている場合には、S24の判断はYesになる。この場合には、当該歩行者候補を歩行者として最終的に検出する(S26)。
In this case, the process proceeds to S24, and finally it is determined whether or not the pedestrian can be identified from the whole body image that is not complemented. This determination can be made in the same manner as the pedestrian identification determination in S20. If no pedestrian appears in the image within the processing area, the determination in S24 is No, and the process returns to S10 and the above process is repeated.
On the other hand, if the pedestrian's whole body appears in the image within the processing area, the determination in S24 is Yes. In this case, the pedestrian candidate is finally detected as a pedestrian (S26).
以上に詳述したように、本実施形態に係る物体検出装置1は、所定の撮像範囲で自車2の周辺の画像を撮影するカメラ5と、カメラ5が撮影した画像および自車2の速度に基づいて、撮像範囲に存在する静止車両30を検出する静止物検出手段12と、静止車両30における自車2に近い側の端に、撮像範囲よりも小さい処理領域35を設定する処理領域設定手段14と、処理領域35内で撮影された物体が歩行者40であるか判断する歩行者検出手段16と、を備えたことを特徴とする。
As described in detail above, the
この構成によれば、静止車両30における自車2に近い側の端に処理領域35を設定するので、静止車両30の陰から自車2の進路に飛び出そうとする歩行者40を確実に発見することができる。また撮像範囲よりも小さい処理領域35を設定するので、飛び出そうとする歩行者40を早期に発見することができる。
According to this configuration, since the
また歩行者検出手段16は、処理領域35内で撮影された物体を歩行者として補完可能か判断する補完可否判断手段17を備えたことを特徴とする。
この構成によれば、歩行者40の身体の一部が静止車両30の陰に隠れている場合でも、その画像中の物体を歩行者として補完することが可能になる。これにより、歩行者候補のトラッキングを早期に開始することが可能になり、静止車両の陰から飛び出そうとする歩行者を早期に発見することができる。
Further, the pedestrian detection means 16 includes a complementation possibility judgment means 17 that judges whether an object photographed in the
According to this configuration, even when a part of the body of the
また歩行者検出手段16は、時間的に連続する複数の画像の処理領域35において歩行者候補が検出された場合に、歩行者が存在すると判断することを特徴とする。
このように歩行者候補のトラッキングを行うことにより、歩行者の発見精度を向上させることができる。
The pedestrian detection means 16 is characterized by determining that a pedestrian exists when a pedestrian candidate is detected in a
By tracking pedestrian candidates in this way, pedestrian discovery accuracy can be improved.
また歩行者検出手段16は、最新の処理領域35の画像において歩行者40の全身が検出された場合に、歩行者40が存在すると判断することを特徴とする。
このように、最終的に歩行者40の全身が検出されてから歩行者が存在すると判断することにより、歩行者40の発見精度を向上させることができる。
Moreover, the pedestrian detection means 16 is characterized by determining that the
Thus, the detection accuracy of the
なお、この発明は上述した実施形態に限られるものではない。
例えば、実施形態では静止車両の陰から飛び出そうとする歩行者を検出したが、静止車両以外の静止物体を認識し、その陰から飛び出そうとする歩行者を検出してもよい。また静止車両の検出方法として、実施形態ではテンプレートマッチング法を採用したが、これ以外の手法を採用することも可能である。また、実施形態における処理領域の設定範囲は一例であり、異なる範囲を処理領域に設定してもよい。
The present invention is not limited to the embodiment described above.
For example, in the embodiment, a pedestrian who tries to jump out from behind a stationary vehicle is detected, but a stationary object other than the stationary vehicle may be recognized, and a pedestrian trying to jump out from the shade may be detected. Further, as a stationary vehicle detection method, the template matching method is employed in the embodiment, but other methods can also be employed. In addition, the setting range of the processing area in the embodiment is an example, and a different range may be set as the processing area.
1…物体検出装置 2…車両 5…カメラ(撮像手段) 12…静止物検出手段 14…処理領域設定手段 16…歩行者検出手段 30…静止車両(静止物) 35…処理領域 40…歩行者
DESCRIPTION OF
Claims (2)
前記撮像手段が撮影した画像および前記自車の速度に基づいて、前記撮像範囲に存在する静止物を検出する静止物検出手段と、
前記静止物における前記自車に近い側の端に、前記撮像範囲よりも小さい処理領域を設定する処理領域設定手段と、
前記処理領域内で撮影された物体が歩行者であるか判断する歩行者検出手段と、
を備えたことを特徴とする物体検出装置。 Imaging means for capturing an image of the periphery of the vehicle within a predetermined imaging range;
A stationary object detection means for detecting a stationary object present in the imaging range based on an image captured by the imaging means and the speed of the host vehicle;
Processing area setting means for setting a processing area smaller than the imaging range at an end of the stationary object on the side close to the own vehicle;
Pedestrian detection means for determining whether an object photographed in the processing area is a pedestrian;
An object detection apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007078789A JP2008242571A (en) | 2007-03-26 | 2007-03-26 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007078789A JP2008242571A (en) | 2007-03-26 | 2007-03-26 | Object detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008242571A true JP2008242571A (en) | 2008-10-09 |
Family
ID=39913883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007078789A Withdrawn JP2008242571A (en) | 2007-03-26 | 2007-03-26 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008242571A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010218246A (en) * | 2009-03-17 | 2010-09-30 | Toyota Motor Corp | Object identification device |
JP2011150633A (en) * | 2010-01-25 | 2011-08-04 | Toyota Central R&D Labs Inc | Object detection device and program |
JP2013117772A (en) * | 2011-12-01 | 2013-06-13 | Secom Co Ltd | Image monitoring device |
JP2013182371A (en) * | 2012-03-01 | 2013-09-12 | Nissan Motor Co Ltd | Jumping-out detecting device |
JP2013210988A (en) * | 2012-03-01 | 2013-10-10 | Nissan Motor Co Ltd | Apparatus for detecting object that appears suddenly |
WO2013179588A1 (en) * | 2012-05-31 | 2013-12-05 | 株式会社デンソー | Human detection apparatus |
JP2014035560A (en) * | 2012-08-07 | 2014-02-24 | Nissan Motor Co Ltd | Jump-to-street detection device |
JP2014109943A (en) * | 2012-12-03 | 2014-06-12 | Denso Corp | Target detection device |
JP2014109944A (en) * | 2012-12-03 | 2014-06-12 | Denso Corp | Target detection device |
WO2014132729A1 (en) * | 2013-03-01 | 2014-09-04 | 日立オートモティブシステムズ株式会社 | Stereo camera device |
KR101554892B1 (en) | 2012-12-03 | 2015-09-22 | 가부시키가이샤 덴소 | Target detecting device for avoiding collision between vehicle and target captured by sensor mounted to the vehicle |
JP2016024602A (en) * | 2014-07-18 | 2016-02-08 | 日立オートモティブシステムズ株式会社 | Object detection apparatus and vehicle control system using the same |
CN104364821B (en) * | 2012-05-31 | 2016-11-30 | 株式会社电装 | People detects device |
WO2017073520A1 (en) * | 2015-10-26 | 2017-05-04 | 三郎 山内 | Object recognition system, object recognition method, program, and computer storage medium |
JP2017220178A (en) * | 2016-06-10 | 2017-12-14 | 株式会社Soken | Substance detection device and substance detection method |
EP3188156A4 (en) * | 2014-08-26 | 2018-06-06 | Hitachi Automotive Systems, Ltd. | Object recognition device and vehicle control system |
-
2007
- 2007-03-26 JP JP2007078789A patent/JP2008242571A/en not_active Withdrawn
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010218246A (en) * | 2009-03-17 | 2010-09-30 | Toyota Motor Corp | Object identification device |
JP2011150633A (en) * | 2010-01-25 | 2011-08-04 | Toyota Central R&D Labs Inc | Object detection device and program |
JP2013117772A (en) * | 2011-12-01 | 2013-06-13 | Secom Co Ltd | Image monitoring device |
JP2013182371A (en) * | 2012-03-01 | 2013-09-12 | Nissan Motor Co Ltd | Jumping-out detecting device |
JP2013210988A (en) * | 2012-03-01 | 2013-10-10 | Nissan Motor Co Ltd | Apparatus for detecting object that appears suddenly |
CN104364821A (en) * | 2012-05-31 | 2015-02-18 | 株式会社电装 | Human detection apparatus |
WO2013179588A1 (en) * | 2012-05-31 | 2013-12-05 | 株式会社デンソー | Human detection apparatus |
JP2013250734A (en) * | 2012-05-31 | 2013-12-12 | Denso Corp | Person detection device |
CN104364821B (en) * | 2012-05-31 | 2016-11-30 | 株式会社电装 | People detects device |
US9235778B2 (en) | 2012-05-31 | 2016-01-12 | Denso Corporation | Human detection apparatus |
JP2014035560A (en) * | 2012-08-07 | 2014-02-24 | Nissan Motor Co Ltd | Jump-to-street detection device |
US9575176B2 (en) | 2012-12-03 | 2017-02-21 | Denso Corporation | Target detecting device for avoiding collision between vehicle and target captured by sensor mounted to the vehicle |
JP2014109944A (en) * | 2012-12-03 | 2014-06-12 | Denso Corp | Target detection device |
KR101554892B1 (en) | 2012-12-03 | 2015-09-22 | 가부시키가이샤 덴소 | Target detecting device for avoiding collision between vehicle and target captured by sensor mounted to the vehicle |
US10429502B2 (en) | 2012-12-03 | 2019-10-01 | Denso Corporation | Target detecting device for avoiding collision between vehicle and target captured by sensor mounted to the vehicle |
JP2014109943A (en) * | 2012-12-03 | 2014-06-12 | Denso Corp | Target detection device |
US20160012283A1 (en) * | 2013-03-01 | 2016-01-14 | Hitachi Automotive Systems, Ltd. | Stereoscopic Camera Apparatus |
JP2014170298A (en) * | 2013-03-01 | 2014-09-18 | Hitachi Automotive Systems Ltd | Stereo camera device |
US9697421B2 (en) | 2013-03-01 | 2017-07-04 | Hitachi Automotive Systems, Ltd. | Stereoscopic camera apparatus |
WO2014132729A1 (en) * | 2013-03-01 | 2014-09-04 | 日立オートモティブシステムズ株式会社 | Stereo camera device |
JP2016024602A (en) * | 2014-07-18 | 2016-02-08 | 日立オートモティブシステムズ株式会社 | Object detection apparatus and vehicle control system using the same |
EP3188156A4 (en) * | 2014-08-26 | 2018-06-06 | Hitachi Automotive Systems, Ltd. | Object recognition device and vehicle control system |
US10246038B2 (en) | 2014-08-26 | 2019-04-02 | Hitachi Automotive Systems, Ltd. | Object recognition device and vehicle control system |
WO2017073520A1 (en) * | 2015-10-26 | 2017-05-04 | 三郎 山内 | Object recognition system, object recognition method, program, and computer storage medium |
JP2017220178A (en) * | 2016-06-10 | 2017-12-14 | 株式会社Soken | Substance detection device and substance detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008242571A (en) | Object detection device | |
US10940818B2 (en) | Pedestrian collision warning system | |
Kuo et al. | Vision-based vehicle detection for a driver assistance system | |
US9251708B2 (en) | Forward collision warning trap and pedestrian advanced warning system | |
JP5407898B2 (en) | Object detection apparatus and program | |
US9047518B2 (en) | Method for the detection and tracking of lane markings | |
JP4203512B2 (en) | Vehicle periphery monitoring device | |
US9619895B2 (en) | Image processing method of vehicle camera and image processing apparatus using the same | |
JP2006268097A (en) | On-vehicle object detecting device, and object detecting method | |
JP6358552B2 (en) | Image recognition apparatus and image recognition method | |
JP2003502745A (en) | A method for detecting objects near road vehicles up to a considerable distance | |
US10318824B2 (en) | Algorithm to extend detecting range for AVM stop line detection | |
JP2007156626A (en) | Object type determination device and object type determination method | |
KR102069843B1 (en) | Apparatus amd method for tracking vehicle | |
JP2003084064A (en) | Device and method for recognizing vehicle in front side | |
JP2006350699A (en) | Image processor and image processing method | |
JP2016206721A (en) | Road mark detection apparatus and road mark detection method | |
JP3868915B2 (en) | Forward monitoring apparatus and method | |
JP4969359B2 (en) | Moving object recognition device | |
KR20160126254A (en) | System for detecting road area | |
JP4754434B2 (en) | Road surface estimation device | |
JP2007199932A (en) | Image processor and its method | |
JP2000048183A (en) | Traveling lane recognizing device | |
JP2009193130A (en) | Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method | |
US9811744B2 (en) | Fast and robust stop line detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100601 |