JP2014164461A - Pedestrian detector and pedestrian detection method - Google Patents
Pedestrian detector and pedestrian detection method Download PDFInfo
- Publication number
- JP2014164461A JP2014164461A JP2013034246A JP2013034246A JP2014164461A JP 2014164461 A JP2014164461 A JP 2014164461A JP 2013034246 A JP2013034246 A JP 2013034246A JP 2013034246 A JP2013034246 A JP 2013034246A JP 2014164461 A JP2014164461 A JP 2014164461A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pedestrian
- candidate
- candidate image
- lane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車載カメラで撮影した画像の中から歩行者を検出する技術に関する。 The present invention relates to a technique for detecting a pedestrian from an image taken by an in-vehicle camera.
近年の車両では、車載カメラで撮影した車両周辺の画像から歩行者を検出し、その結果を各種の運転支援に利用することが行われている。また、画像に写った歩行者を検出するためには、次のようにして歩行者の形状を探索する技術が用いられている。先ず、歩行者の外形形状には、ほとんどの歩行者が有するが歩行者以外の物体は有さないような幾つかの特徴が存在している。そこで、このような外形形状の特徴を歩行者の外形形状の特徴(すなわち、人型)として記憶しておく。そして、画像中で様々な大きさの探索窓を設定して、探索窓を移動させながら、歩行者の外形形状の特徴を有する画像(人型の画像)を探索することによって、歩行者を抽出する。 In recent vehicles, a pedestrian is detected from an image around a vehicle photographed by an in-vehicle camera, and the result is used for various driving assistances. Moreover, in order to detect the pedestrian reflected in the image, the technique which searches the shape of a pedestrian as follows is used. First, the pedestrian's external shape has several features that most pedestrians have but no objects other than pedestrians. Therefore, such features of the outer shape are stored as features of the outer shape of the pedestrian (that is, a human figure). Then, by setting search windows of various sizes in the image and moving the search window, the pedestrian is extracted by searching for an image (humanoid image) that has the characteristics of the pedestrian's outer shape. To do.
もっとも、この方法では、たとえば道路標識が車の前照灯による照明で光って見える画像や、あるいは窓ガラスなどに照明が写り込んだ画像を、歩行者の画像と誤検出することがある。
そこで、画像の上の方ほど遠くの風景が写るために歩行者が小さく写ることに着目して、画像の下から上の方にいくほど小さな探索窓を用いて歩行者を探索するようにした技術が提案されている(特許文献1)。こうすれば、画像の下の方で小さく写り込んだ画像や、画像の上の方で大きく写り込んだ画像を、歩行者と誤検出してしまうことを回避することができる。
However, in this method, for example, an image in which a road sign appears to be illuminated by illumination from a vehicle headlamp or an image in which illumination is reflected on a window glass may be erroneously detected as an image of a pedestrian.
Therefore, focusing on the fact that pedestrians appear smaller because the distant landscape appears in the upper part of the image, a technology that searches for pedestrians using a smaller search window from the bottom to the top of the image. Has been proposed (Patent Document 1). In this way, it is possible to avoid erroneously detecting a pedestrian in an image that appears smaller in the lower part of the image or an image that appears larger in the upper part of the image.
しかし、提案の技術によっても、画像中の歩行者を十分な精度で検出することは難しいという問題があった。何故なら、確かに、画像の上の方ほど歩行者が小さく写ることは事実であるが、画像上の位置に応じてどの程度の大きさに写るかという点については、車載カメラの取り付け角度の僅かな違いによって車両毎に異なったものとなる。また、走行中に車両の前側が上下方向に傾いたり、あるいは進行方向に坂道があったりした場合にも、画像上での位置に応じて歩行者が写る大きさは変化する。このため、探索窓の大きさにはかなりの幅を持たせて歩行者を探索する必要があり、その結果、画像の下の方で極端に小さく写っている画像(歩行者と紛らわしい画像)や、上の方で極端に大きく写っている画像(歩行者と紛らわしい画像)しか、歩行者ではないと判断することができない。このような理由から、提案されている技術では画像中の歩行者を十分な精度で検出することが難しいという問題があった。 However, even with the proposed technique, there is a problem that it is difficult to detect a pedestrian in an image with sufficient accuracy. This is because it is true that the pedestrian appears smaller on the upper side of the image, but the size of the pedestrian depends on the position on the image. It will be different for each vehicle due to slight differences. In addition, even when the front side of the vehicle is tilted in the vertical direction or there is a slope in the traveling direction during traveling, the size of the pedestrian that appears varies depending on the position on the image. For this reason, it is necessary to search for pedestrians with a considerable width in the size of the search window. As a result, images that appear extremely small at the bottom of the images (images that are confusing with pedestrians) Only an image that is extremely large in the upper part (an image that is confusing with a pedestrian) can be determined not to be a pedestrian. For these reasons, the proposed technique has a problem that it is difficult to detect a pedestrian in an image with sufficient accuracy.
この発明は、上述した問題に鑑みてなされたものであり、画像に写った歩行者を精度良く検出することが可能な技術の提供を目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to provide a technique capable of accurately detecting a pedestrian in an image.
上述した問題を解決するために本発明の歩行者検出装置および歩行者検出方法は、撮影画像中から歩行者の候補画像を抽出すると、候補画像のサイズと、撮影画像中での候補画像の位置とを記憶しておく。また、撮影画像中から走行車線を検出しておく。そして、候補画像の位置での車線幅を検出して、候補画像のサイズと車線幅との比率が所定範囲内にある撮影画像を、歩行者として検出する。 In order to solve the above-described problem, the pedestrian detection device and the pedestrian detection method of the present invention extract a candidate image of a pedestrian from a captured image, and the size of the candidate image and the position of the candidate image in the captured image. And remember. Further, the traveling lane is detected from the captured image. Then, the lane width at the position of the candidate image is detected, and a captured image in which the ratio between the size of the candidate image and the lane width is within a predetermined range is detected as a pedestrian.
車両は道路を走行するものであるから、撮影画像中には原則として走行車線が写っている。しかも、走行車線は車両の近くから遠くまで連続して写っており、車線幅も大まかには決まっている。従って、走行車線の車線幅を基準として用いれば、候補画像の大きさが歩行者として妥当な大きさであるか否かを精度良く判断することができるので、撮影画像中の歩行者を精度良く検出することが可能となる。 Since the vehicle travels on the road, the traveling lane is shown in principle in the captured image. Moreover, the driving lane is continuously captured from near to far from the vehicle, and the lane width is roughly determined. Therefore, if the lane width of the traveling lane is used as a reference, it can be accurately determined whether or not the size of the candidate image is an appropriate size for a pedestrian, so that the pedestrian in the captured image can be accurately determined. It becomes possible to detect.
また、上述した本発明の歩行者検出装置においては、歩行者の外形形状の特徴量を記憶しておき、その特徴量を用いて撮影画像を探索することによって候補画像を抽出することとしても良い。そして、特徴量を用いて探索された歩行者が立っている位置に対応する代表点も、特徴量として記憶しておき、候補画像を抽出したときの代表点の位置を、候補画像位置として記憶することとしてもよい。 In the pedestrian detection apparatus of the present invention described above, the feature amount of the outer shape of the pedestrian is stored, and the candidate image may be extracted by searching for a captured image using the feature amount. . And the representative point corresponding to the position where the pedestrian standing searched using the feature amount is also stored as the feature amount, and the position of the representative point when the candidate image is extracted is stored as the candidate image position. It is good to do.
こうすれば、候補画像が歩行者であるとした場合に、歩行者が立っている位置での車線幅と、候補画像の大きさとを比較することができるので、候補画像が歩行者であるか否かを精度良く判断することができる。その結果、歩行者の検出精度をより一層向上させることが可能となる。 In this way, if the candidate image is a pedestrian, the lane width at the position where the pedestrian is standing can be compared with the size of the candidate image, so is the candidate image a pedestrian? It is possible to accurately determine whether or not. As a result, pedestrian detection accuracy can be further improved.
また、上述した本発明の歩行者検出装置においては、撮影画像が夜間に撮影された画像であるか否かを判断し、撮影画像が夜間に撮影された画像であった場合に、車線幅と候補画像サイズとの比率に基づいて、候補画像の中から歩行者を検出することとしてもよい。 In the pedestrian detection device of the present invention described above, it is determined whether or not the captured image is an image captured at night, and when the captured image is an image captured at night, the lane width and A pedestrian may be detected from the candidate images based on the ratio with the candidate image size.
こうすれば、物体の外形形状を明確に認識することが困難な夜間時には、車線幅の情報を用いることで精度良く歩行者を検出することができる。また、物体の外形形状を明確に認識することが容易な昼間時には、走行車線を検出しなくてもよいので、歩行者を検出する処理の処理負担を軽減することができる。 In this way, a pedestrian can be detected with high accuracy by using lane width information at night when it is difficult to clearly recognize the outer shape of the object. Further, during daytime when it is easy to clearly recognize the outer shape of the object, it is not necessary to detect the traveling lane, so the processing load of the process for detecting the pedestrian can be reduced.
以下では、上述した本願発明の内容を明確にするために実施例について説明する。
A.本実施例の装置構成 :
図1には、本実施例の歩行者検出装置100を搭載した車両1が示されている。図示されるように歩行者検出装置100には、車両1に搭載された車載カメラ120が接続されており、歩行者検出装置100は、車載カメラ120によって得られた撮影画像を解析して、画像中の歩行者を抽出する。また、夜間走行時などでは、運転者あるいは図示しない制御装置が前照灯10を点灯させ、前照灯10で照らされた画像を車載カメラ120で撮影する。
尚、歩行者検出装置100は、CPUや、ROM、RAMなどが相互にバスで接続されて構成されたマイクロコンピューターである。
Hereinafter, examples will be described in order to clarify the contents of the present invention described above.
A. Apparatus configuration of this embodiment:
FIG. 1 shows a vehicle 1 equipped with a
The
図2には、撮影画像に写った歩行者を検出するための機能に着目して、歩行者検出装置100の内部構成を表したブロック図が示されている。図示するように、歩行者検出装置100は、人型記憶モジュール102と、候補画像抽出モジュール104と、走行車線検出モジュール106と、候補画像記憶モジュール108と、歩行者検出モジュール110とに分けることができる。
尚、「モジュール」とは、歩行者検出装置100を機能に着目して便宜的に分割した抽象的な概念であり、歩行者検出装置100が必ずしも物理的に分割されていることを示すものではない。従って、モジュールは、コンピュータープログラムによって実現することもできるし、複数のICチップなどを組み合わせた電子回路やRAMなどによって実現することもできる。
FIG. 2 is a block diagram showing the internal configuration of the
The “module” is an abstract concept in which the
人型記憶モジュール102は、撮影画像から歩行者を検出する際に用いる特徴量のデータを記憶する。すなわち、撮影画像中の歩行者は、歩いている態様や、走っている態様、立ち止まっている態様など様々な態様で写り得るが、歩行者である以上、その外形形状は、歩行者以外の物体は取り得ないような共通の特徴量を有している。あるいは逆に、歩行者は取り得ないような特徴量を想定することができる。このような複数の特徴量をまとめたデータは、「人型」と呼ばれる。人型記憶モジュール102は、このような人型のデータを記憶している。
候補画像抽出モジュール104は、撮影画像中で人型のデータに合致する画像(歩行者の特徴量を備えた画像)を探索することによって、撮影画像上で歩行者が写った箇所を、歩行者の候補の画像(候補画像)として抽出する。ここで、歩行者の画像を、歩行者の画像ではなく、歩行者の候補の画像としているのは、歩行者でない物体が歩行者の特徴量を備えているように見えたり、たまたま2つの物体が重なって、歩行者の特徴量を備えているように見えたりする場合があることを考慮して、この時点では歩行者の候補ということにしているためである。
走行車線検出モジュール106は、撮影画像中で走行車線を検出する。車両1は原則として道路を走行するから、車載カメラ120で撮影された画像には車両1が走行している走行車線が写っている。そこで、走行車線検出モジュール106は、この走行車線を撮影画像中から検出する。
候補画像記憶モジュール108は、抽出された候補画像の各々について、その候補画像のサイズと、撮影画像上での候補画像の位置とを記憶する。
歩行者検出モジュール110は、候補画像記憶モジュール108に記憶されている候補画像のサイズおよび候補画像の位置と、走行車線検出モジュール106で検出した走行車線の情報とを用いて、候補画像(歩行者の候補の画像)の中から歩行者を検出する。尚、候補画像の中から歩行者を検出する方法については後述する。
The human-
Candidate
The travel
For each extracted candidate image, the candidate
The
尚、本実施例では、人型記憶モジュール102が本発明における「特徴量記憶手段」に対応し、候補画像抽出モジュール104が「候補画像抽出手段」に対応する。また、走行車線検出モジュール106が本発明における「走行車線検出手段」に対応し、候補画像記憶モジュール108が「候補画像記憶手段」に対応し、歩行者検出モジュール110が「歩行者検出手段」に対応する。
In this embodiment, the human
B.歩行者検出処理 :
図3には、歩行者検出装置100が撮影画像から歩行者を検出する処理(歩行者検出処理)のフローチャートが示されている。歩行者検出処理を開始すると、先ず始めに、車載カメラ120を用いて車両1の撮影画像を撮影する(S100)。
図4には、夜間に車両1の前方を撮影した得られた撮影画像が例示されている。図示されるように、撮影画像中には、歩道を歩く歩行者や、周囲を照らす複数の街灯や、車両1の前照灯10の光を反射した反射器および道路標識が光って写っている。
B. Pedestrian detection process:
FIG. 3 shows a flowchart of processing (pedestrian detection processing) in which the
FIG. 4 illustrates a captured image obtained by capturing the front of the vehicle 1 at night. As shown in the figure, a pedestrian walking on the sidewalk, a plurality of streetlights that illuminate the surroundings, a reflector that reflects the light of the
次に、撮影された撮影画像の中から、人型を用いて候補画像を抽出する(図3のS102)。ここで、前述したように人型とは、歩行者の外形形状の特徴量を示す複数のデータの集まりであって、人間の形状を示すものではない。しかし、「外形形状の特徴量」という抽象的な概念ではイメージが湧きにくいので、以下では、便宜的に、人間の形状を表す図形を用いて人型を表示するものとする。図5(a)には、人間の形状を用いて便宜的に表示された人型が例示されている。このような人型を用いると、たとえば歩行者の手足が建物の陰に隠れていたり、歩行者が横を向いていたりしていて手足を確認できない場合でも、候補画像として抽出することができる。
もちろん、人型を用いて歩行者を検出した場合、人間に近い形状をしていれば人間以外の物体でも、歩行者の候補として抽出してしまう。しかし本実施例の歩行者検出装置100では、走行車線の車線幅を検出することにより、候補画像の中から歩行者だけを検出することができる。このため実際には、人間以外の物体を歩行者として誤検出することはない。この点については、後ほど詳しく説明する。
Next, candidate images are extracted from the photographed captured images using a humanoid (S102 in FIG. 3). Here, as described above, the human figure is a collection of a plurality of data indicating the feature amount of the outer shape of the pedestrian, and does not indicate a human shape. However, since it is difficult to generate an image with the abstract concept of “outline shape feature quantity”, in the following, for convenience, a human figure is displayed using a figure representing a human shape. FIG. 5A illustrates a human figure displayed for convenience using a human shape. When such a humanoid is used, for example, even when a pedestrian's limbs are hidden behind a building or a pedestrian is facing sideways and the limb cannot be confirmed, it can be extracted as a candidate image.
Of course, when a pedestrian is detected using a human figure, an object other than a human is extracted as a candidate for a pedestrian if the shape is close to that of a human. However, in the
また、画像中の歩行者は、車両1に近付くに連れて大きく写り、車両1から遠くなるに連れて小さく写るので、人型を用いて画像中の歩行者を検出する際には、様々な大きさの探索窓(図5(a)に示した例ではP1〜P8の8つ)を用いて歩行者を検出する。このことと対応して、図5(a)では、探索窓の大きさ毎(h1〜h8の8つ)に人型が設定されている。もっとも、上述したように人型は抽象的なデータなので、1つの人型を大きさの異なる探索窓に適用することも可能である。また、本実施例の人型には、歩行者が立っている位置を示す「代表点」が設定されている。 In addition, since a pedestrian in the image appears larger as it approaches the vehicle 1 and becomes smaller as it moves away from the vehicle 1, various types of pedestrians are detected when detecting a pedestrian in the image using a human figure. A pedestrian is detected using a search window having a size (eight in the example shown in FIG. 5A, P1 to P8). Correspondingly, in FIG. 5A, a human type is set for each search window size (eight h1 to h8). However, since the human type is abstract data as described above, it is possible to apply one human type to search windows having different sizes. In addition, “representative points” indicating positions where pedestrians are standing are set in the humanoid of the present embodiment.
図5(b)には、上述した人型を用いて撮影画像を探索することにより、候補画像を抽出する様子が概念的に示されている。候補画像を抽出するに際しては、撮影画像上に前述の探索窓を重ねて、探索窓内での撮影画像が、人型に合致するか否か(歩行者の外形形状の特徴量を備えているか否か)を判断する。その結果、探索窓内での撮影画像が人型に合致した場合は、探索窓の位置での人型の代表点の座標を、候補画像の位置として検出する。
図3のS102では、大きさの異なる複数の探索窓について、撮影画像内を移動させることによって、撮影画像中から候補画像を抽出する。
FIG. 5B conceptually shows how candidate images are extracted by searching for a captured image using the above-described humanoid. When extracting candidate images, the above-mentioned search window is overlaid on the photographed image, and whether the photographed image in the search window matches the human shape (whether it has a feature amount of the pedestrian's external shape) Or not). As a result, when the captured image in the search window matches the human figure, the coordinates of the representative point of the human figure at the position of the search window are detected as the position of the candidate image.
In S102 of FIG. 3, candidate images are extracted from the captured image by moving within the captured image for a plurality of search windows having different sizes.
図4の撮影画像に対して、このようにして候補画像を探索すると、図5(b)に示したように5つの候補画像a〜eが抽出される。尚、図示した例では、候補画像c〜eのように人間以外の画像も抽出している。
また、こうして候補画像を抽出した結果は、その候補画像を抽出するために用いた探索窓の大きさ(本実施例では、h1〜h8の8種類)、および候補画像が抽出された時の代表点の座標として、候補画像記憶モジュール108に記憶される。図5(c)には、このようにして候補画像が記憶された様子が示されている。
尚、候補画像を抽出するために用いた探索窓の大きさは、本発明における「候補画像のサイズ」に対応する。また、候補画像が抽出された時の代表点の座標は、本発明における「候補画像の位置」に対応する。
When the candidate images are searched for the captured image of FIG. 4 in this way, five candidate images a to e are extracted as shown in FIG. In the illustrated example, images other than humans are extracted as candidate images c to e.
In addition, the result of extracting the candidate images in this manner is the size of the search window used for extracting the candidate images (eight types of h1 to h8 in this embodiment), and the representative when the candidate images are extracted. The coordinates of the points are stored in the candidate
Note that the size of the search window used for extracting the candidate image corresponds to the “size of candidate image” in the present invention. Further, the coordinates of the representative point when the candidate image is extracted correspond to the “position of the candidate image” in the present invention.
もっとも、抽出した候補画像の中には、人間以外の物体の画像も含まれている可能性がある(図5(b)中の候補画像c〜e)。これは、歩行者の検出洩れを避けるために、少しでも人間の外形形状に近ければ抽出するような人型を用いているためである。しかし、このような人間以外の物体を抽出した候補画像については、次のような方法で振るい落とすことができる。 However, the extracted candidate images may include images of objects other than humans (candidate images c to e in FIG. 5B). This is because, in order to avoid the detection omission of the pedestrian, a human shape is used that is extracted if it is as close as possible to the outer shape of the human. However, such candidate images extracted from non-human objects can be shaken out by the following method.
先ず、撮影画像の中から車両1が走行している走行車線を検出する(図3のS104)。走行車線の検出には、周知の様々な方法を用いることができる。たとえば、エッジ検出を用いて、撮影画像中の2本の並行な白線を検出することによって走行車線を検出することができる。もちろん白線に代えて、白い破線を検出してもよい。また、路肩に止まった車両によって白線の一部が隠れていた場合でも、車線幅は連続的にしか変化しないことを考慮して走行車線の位置を推定することもできる。
図6には、図4の撮影画像中で2本の白線(LおよびR)を検出することによって、走行車線を検出した様子が例示されている。
First, a travel lane in which the vehicle 1 is traveling is detected from the captured image (S104 in FIG. 3). Various well-known methods can be used for detecting the traveling lane. For example, a traveling lane can be detected by detecting two parallel white lines in a captured image using edge detection. Of course, a white broken line may be detected instead of the white line. In addition, even when a part of the white line is hidden by a vehicle that has stopped on the shoulder, it is possible to estimate the position of the traveling lane in consideration that the lane width changes only continuously.
FIG. 6 illustrates a state where a traveling lane is detected by detecting two white lines (L and R) in the captured image of FIG.
以上のようにして、撮影画像中の候補画像を抽出し(図3のS102)、更に走行車線を検出したら(S104)、抽出した候補画像の中から1つの候補画像を選択する(S106)。続いて、選択した候補画像の代表点の位置での車線幅を検出する(S108)。ここで、「代表点の位置での車線幅」とは、代表点の位置から水平方向に走行車線を見たときの車線幅である。この車線幅は、代表点の位置から水平方向に撮影画像を走査して、走行車線の左側の白線Lおよび右側の白線Rのそれぞれについて得られた交点の間隔を検出することによって求めることができる。
図7に示した例を用いて説明すると、図中の候補画像aについては、代表点の位置から撮影画像を水平方向に走査して、走行車線の左側の白線Lおよび右側の白線Rのそれぞれの交点の間隔から、車線幅waを検出する。また図中に「c」と表示した候補画像については車線幅wcを検出し、図中に「e」と表示した候補画像については車線幅weを検出する。
また、図5(a)を用いて前述したように、候補画像の代表点は、人型によって検出された歩行者が立っている位置に設定されている。従って、代表点の位置での車線幅を検出する処理(図3のS108)は、その候補画像を歩行者と仮定して、歩行者が立っている位置での車線幅を検出していることに相当する。
As described above, candidate images in the captured image are extracted (S102 in FIG. 3), and when a traveling lane is detected (S104), one candidate image is selected from the extracted candidate images (S106). Subsequently, the lane width at the position of the representative point of the selected candidate image is detected (S108). Here, the “lane width at the position of the representative point” is the lane width when the traveling lane is viewed in the horizontal direction from the position of the representative point. The lane width can be obtained by scanning the captured image in the horizontal direction from the position of the representative point and detecting the distance between the intersection points obtained for the white line L on the left side and the white line R on the right side of the traveling lane. .
Referring to the example shown in FIG. 7, for the candidate image a in the figure, the captured image is scanned in the horizontal direction from the position of the representative point, and each of the white line L on the left side and the white line R on the right side of the driving lane. The lane width wa is detected from the interval between the intersections. Further, the lane width wc is detected for the candidate image displayed as “c” in the drawing, and the lane width we is detected for the candidate image displayed as “e” in the drawing.
Further, as described above with reference to FIG. 5A, the representative point of the candidate image is set at a position where a pedestrian detected by a human figure stands. Therefore, the process of detecting the lane width at the position of the representative point (S108 in FIG. 3) assumes that the candidate image is a pedestrian and detects the lane width at the position where the pedestrian stands. It corresponds to.
続いて、候補画像の大きさと、代表点の位置での車線幅との比率が所定範囲以内であるか否かを判断する(図3のS110)。これは、次のような理由による。先ず、人間の身長は所定の範囲内(代表的には1〜2m)にあり、また、車線幅も所定の長さ(2.5m前後)から大きく異なることはない。従って、候補画像が歩行者であれば、候補画像のサイズ(候補画像を抽出した時の探索窓の大きさ)と、その候補画像の代表点での車線幅との比率は、所定範囲内にある筈である。逆に言えば、この比率が所定範囲内に無い場合は、その候補画像は歩行者ではないと考えて良い。
また、車両1は原則として道路を走行するから、車載カメラ120で撮影した撮影画像からは、ほとんどの場合は走行車線を検出することができる。しかも、走行車線は車両1の近くから遠くまで連続して存在するので、撮影画像中で候補画像が検出された位置に依らず、候補画像の位置での車線幅を検出することができる。従って、走行車線の車線幅を基準に用いて、車線幅との比率によって、候補画像が歩行者であるか否かを判断してやれば、精度良く歩行者を検出することが可能となる。
Subsequently, it is determined whether the ratio between the size of the candidate image and the lane width at the representative point is within a predetermined range (S110 in FIG. 3). This is due to the following reason. First, the height of a human being is within a predetermined range (typically 1 to 2 m), and the lane width is not significantly different from the predetermined length (around 2.5 m). Therefore, if the candidate image is a pedestrian, the ratio between the size of the candidate image (the size of the search window when the candidate image is extracted) and the lane width at the representative point of the candidate image is within a predetermined range. There is a certain trap. Conversely, if this ratio is not within the predetermined range, it may be considered that the candidate image is not a pedestrian.
Since the vehicle 1 travels on the road in principle, the traveling lane can be detected from the captured image captured by the in-
本実施例の歩行者検出処理では、以上のような理由から、候補画像の大きさと車線幅との比率が所定範囲内にあるか否かを判断し(S110)、所定範囲内にあれば(S110:yes)、その候補画像を歩行者として検出する(S112)。
これに対して、候補画像の大きさと車線幅との比率が所定範囲内にない場合は(S110:no)、その候補画像は歩行者として検出することはない。図7に示した例では、候補画像aは歩行者として検出するが、候補画像c,eについては歩行者として検出することはない。
In the pedestrian detection process of the present embodiment, for the reasons described above, it is determined whether the ratio between the size of the candidate image and the lane width is within a predetermined range (S110). S110: yes), the candidate image is detected as a pedestrian (S112).
On the other hand, when the ratio between the size of the candidate image and the lane width is not within the predetermined range (S110: no), the candidate image is not detected as a pedestrian. In the example shown in FIG. 7, the candidate image a is detected as a pedestrian, but the candidate images c and e are not detected as pedestrians.
以上のようにして、1つ選択した候補画像についての一連の処理(図3のS108〜S112)が終了したら、撮影画像中から抽出された全ての候補画像について上述の処理を実施したか否かを判断する(S114)。その結果、未処理の候補画像が残っていた場合は(S114:no)、S106に戻って新たな候補画像を1つ選択した後、上述した一連の処理(S108〜S112)を繰り返す。その結果、全ての候補画像について処理を終了したら(S114:yes)、図3に示した歩行者検出処理を終了する。 As described above, when a series of processing (S108 to S112 in FIG. 3) for one candidate image is completed, whether or not the above-described processing has been performed for all candidate images extracted from the captured image. Is determined (S114). As a result, if an unprocessed candidate image remains (S114: no), the process returns to S106 to select one new candidate image, and then the above-described series of processing (S108 to S112) is repeated. As a result, when processing is completed for all candidate images (S114: yes), the pedestrian detection processing shown in FIG. 3 is terminated.
以上に説明したように、本実施例の歩行者検出装置100は、車線幅を利用することによって、候補画像の中から人間以外の物体の画像を振るい落とすことができる。このため、候補画像として抽出する段階では、少しでも人間の形に見える画像を抽出しておくことができるので、歩行者の検出漏れを低減することができる。それでいながら、人間以外の物体が写った候補画像を振るい落とすことができるので、歩行者の検出精度を大きく向上させることが可能となる。
As described above, the
また、本実施例の歩行者検出装置100では、候補画像の大きさと車線幅との比率に基づいて歩行者を検出するので、車両1が前後方向に傾いたとしても、この影響を受けることなく精度良く歩行者を検出することができる。ここで「車両1の前後方向の傾き」とは、たとえば、車両1の前側あるいは後側のいずれか一方に重い荷物を載せた場合のように、車両1の前側が下向きあるいは上向きに傾くことをいう。
Moreover, since the
図8に例示されるように、車両1が前後方向に傾くと、車載カメラ120の撮影範囲は大きく移動する。図中に太い実線で示した長方形は、車両1の前側が下向きに傾いた場合の撮影範囲を表しており、図中に太い破線で示した長方形は、車両1が傾いていない場合の撮影範囲を表している。このように、車両1の前側が下向きに傾くと撮影範囲が下方にずれることとなり、その結果、撮影画像中に候補画像が写る位置は上方へ移動する。
As illustrated in FIG. 8, when the vehicle 1 tilts in the front-rear direction, the shooting range of the in-
ここで、撮影画像では上の方にいくほど遠くの風景が写ることから、撮影画像に写る歩行者は、画像上で上の方にいくほど小さく写ることが通常である。ところが、車両1の前側が下向きに傾いたために候補画像の写る位置が上方に移動した場合には、候補画像のサイズは変化しない。従って、車両1の前側が下向きに傾いた場合の撮影画像には、画像上の上側部分に、実際の大きさよりも大きな歩行者が写っているように見えてしまう。このため、たとえば、図8中の候補画像aについては、撮影画像中に写った位置だけから判断すると、人間にしては大きすぎるように見えてしまい、歩行者ではないと判断されてしまう可能性がある。 Here, since a distant landscape appears in the photographed image as it goes upward, a pedestrian in the photographed image usually appears as small as it goes upward in the image. However, when the position where the candidate image appears moves upward because the front side of the vehicle 1 is tilted downward, the size of the candidate image does not change. Accordingly, in the captured image when the front side of the vehicle 1 is tilted downward, it appears that a pedestrian larger than the actual size appears in the upper part of the image. For this reason, for example, if the candidate image a in FIG. 8 is determined only from the position in the captured image, it may appear too large for a human being and may be determined not to be a pedestrian. There is.
また、車両1の前側が上向きに傾いた場合も同様なことが起こり得る。すなわち、車両1の前側が上向きに傾くと、撮影画像上での候補画像は、同じサイズのままで写る位置が下方へ移動する。撮影画像には画像の下の方ほど近くの風景が写るから、本来であれば歩行者は大きく写らなければならないが、撮影画像上での候補画像は、サイズはそのままで位置だけが下方へ移動しているので、実際の大きさよりも小さく見えてしまう。このため、人間にしては小さすぎるという理由で歩行者ではないと判断されてしまう可能性がある。 The same thing can happen when the front side of the vehicle 1 is tilted upward. That is, when the front side of the vehicle 1 is tilted upward, the position where the candidate image on the photographed image is captured at the same size moves downward. Since the photographed image shows the scenery closer to the bottom of the image, pedestrians should be larger in the original image, but the candidate image on the photographed image moves in the downward direction only with its size unchanged. So it looks smaller than the actual size. For this reason, it may be judged that it is not a pedestrian because it is too small for a human being.
これに対して、本実施例の歩行者検出装置100では、前述したように、候補画像のサイズを、車線幅と比較することによって歩行者を抽出する。こうすれば、車両1の前側が傾いても、候補画像のサイズと車線幅との比率は変わらないので、車両1の傾きの影響を受けずに歩行者を精度良く検出することが可能となる。
On the other hand, as described above, the
以上では、車両1の前側が傾いた場合について説明した。しかし、同様な現象(すなわち、実際の大きさよりも大きく見えたり、小さく見えたりする現象)は、車両1の前方で道路勾配が変化している場合にも起こり得る。 The case where the front side of the vehicle 1 is tilted has been described above. However, a similar phenomenon (that is, a phenomenon that looks larger or smaller than the actual size) can also occur when the road gradient changes in front of the vehicle 1.
図9には、車両1の前方で道路勾配が変化しているときの撮影画像が例示されている。図示された例では、車両1は水平な部分を走行しており、前方には上り坂(図中で斜線を付した範囲)が存在している。更にその奥側には水平な道路が続いている。
このような場合には、上り坂の向こう側に立っている歩行者は、上り坂が無かった場合にくらべて、撮影画像上での写る位置が上方に移動する。しかし、それに伴って歩行者が小さく写るわけではないから、撮影画像上での位置だけに基づいて判断すると、実際の大きさよりも大きな歩行者が写っているように見えてしまう。
FIG. 9 illustrates a captured image when the road gradient changes in front of the vehicle 1. In the illustrated example, the vehicle 1 is traveling on a horizontal portion, and an uphill (a hatched range in the figure) is present ahead. In addition, there is a horizontal road behind it.
In such a case, the position of the pedestrian standing on the other side of the uphill moves upward as compared with the case where there is no uphill. However, since the pedestrian does not appear to be small in association therewith, if it is determined based only on the position on the photographed image, it appears that a pedestrian larger than the actual size is reflected.
また、上述した場合とは逆に、車両1の前方で下り坂となった場合には、下り坂の向こう側に立っている歩行者は、下り坂が無かった場合にくらべて、撮影画像上での写る位置が下方に移動する。しかし、それに伴って歩行者が大きく写る訳ではないから、結局、実際の大きさよりも小さな歩行者が写っているように見えてしまう。
しかし、このような場合でも、候補画像のサイズと車線幅との比率は変わらない。このため、本実施例の歩行者検出装置100では、精度良く歩行者を抽出することが可能となる。
Contrary to the case described above, when the vehicle 1 is on the downhill in front of the vehicle 1, the pedestrian standing on the other side of the downhill is on the captured image as compared with the case where there is no downhill. The position where the image appears is moved downward. However, since the pedestrian does not appear to be large, the pedestrian appears smaller than the actual size.
However, even in such a case, the ratio between the size of the candidate image and the lane width does not change. For this reason, in the
C.変形例 :
上述した実施例では、車載カメラ120で得られた撮影画像に対して、常に図3の歩行者検出処理を適用するものとして説明した。しかし、上述した歩行者検出処理は、特に夜間のように前照灯10を点灯させた状態で撮影した画像に対して特に有効である。何故なら、夜間時には歩行者も含めて物体の外形形状が分かり難くなるので、歩行者の検出漏れを防ぐ観点からは、歩行者の外形形状に似ているか否かの判断基準を若干緩めることが望ましい。その一方で、夜間時には、前照灯10からの光が反射して、あるいは街路灯などが光って、歩行者以外の物体が歩行者に見えてしまうことが起こり易い。すなわち、夜間時には、歩行者以外の物体を歩行者と誤検出し易くなるので、上述した歩行者検出処理を適用することで、歩行者の検出精度を大きく向上させることが可能となる。
C. Modified example:
In the above-described embodiment, the description has been given on the assumption that the pedestrian detection process of FIG. 3 is always applied to the captured image obtained by the in-
このことから、昼間時のように、歩行者も含めて物体の外形形状が明確な画像を撮影することが可能であり、更に、前照灯10などの影響で歩行者以外の物体が歩行者に見えてしまう可能性も低い条件では、車線幅の情報を用いない一般的な方法を用いて歩行者を検出しても良い。
From this, it is possible to take an image with a clear outer shape of an object including a pedestrian as in the daytime, and further, an object other than the pedestrian is affected by the
図10には、このような変形例の歩行者検出装置200が例示されている。図示した変形例の歩行者検出装置200には、図2を用いて前述した歩行者検出装置100に加えて、夜間走行状態であるか否かを検出する夜間検出モジュール204が設けられている。尚、図10に示した例では、夜間走行状態であるか否かを、前照灯10が点灯しているか否かに基づいて判断しているが、光センサーを用いて周囲の明るさを検出するなど他の方法によって判断しても良い。
FIG. 10 illustrates a
また、変形例の人型記憶モジュール202には、昼間時用の人型と、夜間時用の人型とが記憶されている。そして、夜間検出モジュール204から、夜間走行状態であるか否かの情報を受け取って、夜間走行状態であった場合には夜間時用の人型を候補画像抽出モジュール104に出力し、夜間走行状態でなかった場合は昼間時用の人型を候補画像抽出モジュール104に出力する。
夜間時用の人型としては、図5(a)に例示したものと同様なデータ(特徴量の集まり)を用いることができる。また、昼間時用の人型としては、夜間時用の人型よりも厳格なデータを用いることができる。
Further, the human-
Data similar to that illustrated in FIG. 5A (a collection of feature amounts) can be used as a humanoid for nighttime use. Further, stricter data can be used as the human type for daytime than the human type for nighttime.
夜間検出モジュール204で検出された情報(夜間走行状態であるか否かの情報)は、走行車線検出モジュール106および歩行者検出モジュール110にも供給されている。そして、昼間走行状態では、走行車線検出モジュール106は走行車線の検出を中止する。この結果、昼間走行状態では、走行車線検出モジュール106から走行車線の情報が得られなくなるので、歩行者検出モジュール110は、走行車線の情報を用いずに歩行者を検出する。
Information detected by the night detection module 204 (information on whether or not the vehicle is in the night driving state) is also supplied to the traveling
以上のような変形例の歩行者検出装置200では、夜間走行時のように、物体の外形形状を明確に認識することが困難な条件では、車線幅の情報を用いることで精度良く歩行者を検出することができる。また、昼間走行時のように、物体の外形形状を明確に認識することが容易な条件では、走行車線を検出する必要が無くなるので、歩行者を検出する処理の処理負担を軽減することが可能となる。
尚、変形例の夜間検出モジュール204は、本発明における「判断手段」に対応する。
In the
The
1…車両、 100…歩行者検出装置、 102…人型記憶モジュール、
104…候補画像抽出モジュール、 106…走行車線検出モジュール、
108…候補画像記憶モジュール、 110…歩行者検出モジュール、
120…車載カメラ、 200…歩行者検出装置、
202…人型記憶モジュール、 204…夜間走行検出モジュール。
DESCRIPTION OF SYMBOLS 1 ... Vehicle, 100 ... Pedestrian detection apparatus, 102 ... Human-type memory module,
104 ... Candidate image extraction module, 106 ... Driving lane detection module,
108 ... Candidate
120 ... In-vehicle camera, 200 ... Pedestrian detection device,
202 ... Human type memory module, 204 ... Night running detection module.
Claims (4)
前記撮影画像の中から前記歩行者が写った画像を探索することにより、該歩行者の候補画像を抽出する候補画像抽出手段と、
前記候補画像が抽出されると、該候補画像のサイズと、前記撮影画像中での該候補画像の位置とを記憶する候補画像記憶手段と、
前記撮影画像の中から走行車線を検出する走行車線検出手段と、
前記候補画像の位置から水平方向に前記走行車線を見たときの該走行車線の車線幅と、前記候補画像のサイズとの比率が所定範囲内にある前記候補画像を、前記歩行者として検出する歩行者検出手段と
を備えることを特徴とする歩行者検出装置。 A pedestrian detection device that detects a pedestrian from a photographed image taken by an in-vehicle camera,
Candidate image extraction means for extracting a candidate image of the pedestrian by searching for an image in which the pedestrian is captured from the captured image;
When the candidate image is extracted, candidate image storage means for storing the size of the candidate image and the position of the candidate image in the captured image;
Traveling lane detection means for detecting a traveling lane from the captured image;
The candidate image in which the ratio between the lane width of the traveling lane when viewing the traveling lane in the horizontal direction from the position of the candidate image and the size of the candidate image is within a predetermined range is detected as the pedestrian. A pedestrian detection device comprising: pedestrian detection means.
前記歩行者の外形形状の特徴量を記憶している特徴量記憶手段を更に備え、
前記候補画像抽出手段は、前記特徴量を用いて前記撮影画像を探索することにより、前記候補画像を抽出しており、
前記特徴量記憶手段は、前記特徴量によって表される前記歩行者の立っている位置に対応する代表点を記憶しており、
前記候補画像記憶手段は、前記候補画像が抽出されると、該候補画像を抽出したときの前記代表点の位置を、前記候補画像の位置として記憶する手段であることを特徴とする歩行者検出装置。 The pedestrian detection device according to claim 1,
A feature amount storage means for storing the feature amount of the outer shape of the pedestrian;
The candidate image extracting means extracts the candidate image by searching the captured image using the feature amount,
The feature amount storage means stores a representative point corresponding to a position where the pedestrian is represented by the feature amount,
The candidate image storage means is means for storing, when the candidate image is extracted, a position of the representative point when the candidate image is extracted as a position of the candidate image. apparatus.
前記撮影画像が夜間に撮影された画像であるか否かを判断する判断手段を備え、
前記歩行者検出手段は、前記撮影画像が夜間に撮影された画像であった場合に用いられることを特徴とする歩行者検出装置。 The pedestrian detection device according to claim 1 or 2,
A determination means for determining whether or not the captured image is an image captured at night;
The pedestrian detection device is used when the photographed image is an image photographed at night.
前記撮影画像の中から前記歩行者が写った画像を探索して、該歩行者の候補画像を抽出する工程と、
前記候補画像が抽出されると、該候補画像のサイズと、前記撮影画像中での該候補画像の位置とを記憶する工程と、
前記撮影画像の中から走行車線を検出する工程と、
前記候補画像の位置から水平方向に前記走行車線を見たときの該走行車線の車線幅と、前記候補画像のサイズとの比率が所定範囲内にある前記候補画像を、前記歩行者として検出する工程と
を備える歩行者検出方法。 A pedestrian detection method for detecting a pedestrian from a photographed image taken by an in-vehicle camera,
Searching for an image of the pedestrian in the captured image, and extracting candidate images of the pedestrian;
When the candidate image is extracted, storing the size of the candidate image and the position of the candidate image in the captured image;
Detecting a driving lane from the captured image;
The candidate image in which the ratio between the lane width of the traveling lane when viewing the traveling lane in the horizontal direction from the position of the candidate image and the size of the candidate image is within a predetermined range is detected as the pedestrian. A pedestrian detection method comprising the steps of:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013034246A JP2014164461A (en) | 2013-02-25 | 2013-02-25 | Pedestrian detector and pedestrian detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013034246A JP2014164461A (en) | 2013-02-25 | 2013-02-25 | Pedestrian detector and pedestrian detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014164461A true JP2014164461A (en) | 2014-09-08 |
Family
ID=51615023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013034246A Pending JP2014164461A (en) | 2013-02-25 | 2013-02-25 | Pedestrian detector and pedestrian detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014164461A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016158491A1 (en) * | 2015-04-02 | 2016-10-06 | 株式会社デンソー | Collision avoidance assistance device |
DE102016211939A1 (en) | 2015-06-30 | 2017-03-02 | Denso Corporation | Camera device and on-board system |
JP2020009234A (en) * | 2018-07-10 | 2020-01-16 | 株式会社Soken | Driving section line recognition device |
US11014510B2 (en) | 2017-05-01 | 2021-05-25 | Denso Corporation | Camera device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002099997A (en) * | 2000-09-26 | 2002-04-05 | Mitsubishi Motors Corp | Detection device for moving object |
JP2003132498A (en) * | 2001-10-23 | 2003-05-09 | Hitachi Ltd | Vehicle driving supporting device |
JP2009122859A (en) * | 2007-11-13 | 2009-06-04 | Toyota Motor Corp | Object detector |
WO2012004938A1 (en) * | 2010-07-09 | 2012-01-12 | 本田技研工業株式会社 | Device for monitoring vicinity of vehicle |
US20120026332A1 (en) * | 2009-04-29 | 2012-02-02 | Hammarstroem Per Jonas | Vision Method and System for Automatically Detecting Objects in Front of a Motor Vehicle |
-
2013
- 2013-02-25 JP JP2013034246A patent/JP2014164461A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002099997A (en) * | 2000-09-26 | 2002-04-05 | Mitsubishi Motors Corp | Detection device for moving object |
JP2003132498A (en) * | 2001-10-23 | 2003-05-09 | Hitachi Ltd | Vehicle driving supporting device |
JP2009122859A (en) * | 2007-11-13 | 2009-06-04 | Toyota Motor Corp | Object detector |
US20120026332A1 (en) * | 2009-04-29 | 2012-02-02 | Hammarstroem Per Jonas | Vision Method and System for Automatically Detecting Objects in Front of a Motor Vehicle |
WO2012004938A1 (en) * | 2010-07-09 | 2012-01-12 | 本田技研工業株式会社 | Device for monitoring vicinity of vehicle |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016158491A1 (en) * | 2015-04-02 | 2016-10-06 | 株式会社デンソー | Collision avoidance assistance device |
JP2016197018A (en) * | 2015-04-02 | 2016-11-24 | 株式会社デンソー | Collision avoidance assist device |
US10442430B2 (en) | 2015-04-02 | 2019-10-15 | Denso Corporation | Collision avoidance assistance device |
DE102016211939A1 (en) | 2015-06-30 | 2017-03-02 | Denso Corporation | Camera device and on-board system |
US10331963B2 (en) | 2015-06-30 | 2019-06-25 | Denso Corporation | Camera apparatus and in-vehicle system capturing images for vehicle tasks |
DE102016211939B4 (en) | 2015-06-30 | 2022-10-20 | Denso Corporation | Camera device and vehicle onboard system |
US11014510B2 (en) | 2017-05-01 | 2021-05-25 | Denso Corporation | Camera device |
JP2020009234A (en) * | 2018-07-10 | 2020-01-16 | 株式会社Soken | Driving section line recognition device |
JP7140574B2 (en) | 2018-07-10 | 2022-09-21 | 株式会社Soken | Traffic lane line recognition device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4624594B2 (en) | Object recognition method and object recognition apparatus | |
JP5423631B2 (en) | Image recognition device | |
US10081308B2 (en) | Image-based vehicle detection and distance measuring method and apparatus | |
JP5747549B2 (en) | Signal detector and program | |
JP4915281B2 (en) | Signal detection device, signal detection method and program | |
JP6328369B2 (en) | In-vehicle control device | |
JP5105400B2 (en) | Traffic measuring method and traffic measuring device | |
US8848980B2 (en) | Front vehicle detecting method and front vehicle detecting apparatus | |
EP2549457A1 (en) | Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system | |
EP2960829A2 (en) | Lane boundary estimation device and lane boundary estimation method | |
JP5480917B2 (en) | Vehicle periphery monitoring device | |
JPH05265547A (en) | On-vehicle outside monitoring device | |
CN103477347A (en) | Method for evaluating an image captured by a camera of a vehicle and image processing device | |
JP2007238090A (en) | Automatic switching control method for on-vehicle projector | |
JP6278790B2 (en) | Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system | |
JP2014164461A (en) | Pedestrian detector and pedestrian detection method | |
JP4296287B2 (en) | Vehicle recognition device | |
JP2010224670A (en) | Periphery monitoring device for vehicle | |
JP5407920B2 (en) | Lighting color identification device and program | |
JP2021018465A (en) | Object recognition device | |
JP2004086417A (en) | Method and device for detecting pedestrian on zebra crossing | |
JP2019109681A (en) | Compartment line specification device | |
KR101340014B1 (en) | Apparatus and method for providing location information | |
JP2000099896A (en) | Traveling path detecting device and vehicle traveling controller and recording medium | |
CN108256510A (en) | A kind of road edge line detecting method, device and terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151225 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160412 |