JP4062306B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP4062306B2
JP4062306B2 JP2004362601A JP2004362601A JP4062306B2 JP 4062306 B2 JP4062306 B2 JP 4062306B2 JP 2004362601 A JP2004362601 A JP 2004362601A JP 2004362601 A JP2004362601 A JP 2004362601A JP 4062306 B2 JP4062306 B2 JP 4062306B2
Authority
JP
Japan
Prior art keywords
pedestrian
image
stride
calculated
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004362601A
Other languages
Japanese (ja)
Other versions
JP2006172063A (en
Inventor
泰仁 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004362601A priority Critical patent/JP4062306B2/en
Publication of JP2006172063A publication Critical patent/JP2006172063A/en
Application granted granted Critical
Publication of JP4062306B2 publication Critical patent/JP4062306B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載されたカメラによって撮像された画像を処理する画像処理装置、および方法に関する。   The present invention relates to an image processing apparatus and method for processing an image captured by a camera mounted on a vehicle.

次のような歩行者検出装置が特許文献1によって知られている。この歩行者検出装置では、水平方向に並列に配置された一対のステレオカメラで撮像された画像を画像処理して、周辺に存在する歩行者を検出し、歩行者までの距離を算出する。   The following pedestrian detection device is known from Patent Document 1. In this pedestrian detection device, an image captured by a pair of stereo cameras arranged in parallel in the horizontal direction is subjected to image processing, pedestrians existing in the vicinity are detected, and a distance to the pedestrian is calculated.

特開2002−24986号公報JP 2002-24986 A

しかしながら、従来の装置のようにステレオカメラを使用する場合には、カメラ同士のキャリブレーション作業などが必要となるため、カメラのコストが高くなるという問題が生じていた。   However, when a stereo camera is used as in the conventional apparatus, a calibration work between the cameras is required, which causes a problem that the cost of the camera increases.

本発明は、撮像手段で撮像した自車両前方の画像を画像処理して、画像上の各画素から検出されたエッジの横方向の移動速度、および移動方向を画像速度として算出し、算出した画像速度に基づいて、自車両の推定進行経路に側方から接近してくる歩行者を検出し、検出した歩行者の画像内における身長と歩幅を算出し、算出した歩行者の画像内における身長と歩幅との比、および人間の歩行姿勢に基づいてあらかじめ設定された所定の身長と歩幅との比に基づいて、実空間上における歩行者の歩幅を推定し、推定した実空間上における歩行者の歩幅に基づいて、自車両から歩行者までの距離を推定することを特徴とする。
The present invention performs image processing on an image in front of the host vehicle imaged by an imaging unit, calculates the lateral movement speed and movement direction of an edge detected from each pixel on the image, and calculates the calculated image. Based on the speed , the pedestrian approaching from the side of the estimated traveling path of the own vehicle is detected, the height and the stride in the detected pedestrian image are calculated, and the calculated height in the pedestrian image is calculated. The pedestrian's stride in the real space is estimated based on the ratio between the stride and the ratio between the predetermined height and the stride that is set in advance based on the human walking posture. The distance from the own vehicle to the pedestrian is estimated based on the stride.

本発明によれば、撮像手段で撮像した自車両前方の画像を画像処理して、画像上の各画素から検出されたエッジの横方向の移動速度、および移動方向を画像速度として算出し、算出した画像速度に基づいて、自車両の推定進行経路に側方から接近してくる歩行者を検出するようにした。また、実空間上における歩行者の歩幅を推定し、推定した歩行者の歩幅に基づいて自車両から歩行者までの距離を推定することとした。これによって、1台のカメラで撮像した画像に基づいて、歩行者の検出、および歩行者までの距離の推定を行うことができ、コスト面で有利となる。
According to the present invention, the image in front of the host vehicle captured by the imaging unit is subjected to image processing , and the lateral movement speed and the movement direction of the edge detected from each pixel on the image are calculated as the image speed. Based on the obtained image speed , a pedestrian approaching from the side of the estimated traveling path of the own vehicle is detected. In addition, the pedestrian's stride in real space is estimated, and the distance from the vehicle to the pedestrian is estimated based on the estimated pedestrian's stride. This makes it possible to detect a pedestrian and estimate the distance to the pedestrian based on an image captured by one camera, which is advantageous in terms of cost.

―第1の実施の形態―
図1は、第1の実施の形態における画像処理装置の一実施の形態の構成例を示すブロック図である。画像処理装置100は車両に搭載され、車両前方を撮像するカメラ101と、カメラ101で撮像した画像を格納する画像メモリ102と、カメラ101で撮像されて画像メモリ102に記憶した画像に対して後述する画像処理を実行する制御装置103と、後述する画素カウンタのカウント値を記憶するカウンタメモリ104とを備えている。
-First embodiment-
FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an image processing apparatus according to the first embodiment. The image processing apparatus 100 is mounted on a vehicle, and a camera 101 that captures the front of the vehicle, an image memory 102 that stores an image captured by the camera 101, and an image captured by the camera 101 and stored in the image memory 102 are described later. And a counter memory 104 for storing a count value of a pixel counter, which will be described later.

カメラ101は、例えばCCDやCMOSなどの撮像素子を有した高速カメラであり、自車両の走行中に極めて微小な一定時間Δt間隔、例えば2ms間隔で連続的に車両前方を撮像し、各フレームごとに画像メモリ102に出力する。なお、カメラ101は、図2に示すように車両の室内上部前方に設置され、その視軸向きZは車両前方正面方向に向き、撮像面の水平軸Xは地表面と平行となるように、また撮像面の垂直軸Yは地表面と垂直になるように設定されている。カメラ101で撮像した連続画像は、画像メモリ102に出力されて格納される。カメラ101で撮像した画像の具体例を図3に示す。撮像画像3a内には、背景を構成する静止物体3b、および道路脇から自車両前方を横切る方向に移動してくる移動物体、すなわち自車両の推定進行経路に側方から接近してくる歩行者3cが存在している。   The camera 101 is a high-speed camera having an image sensor such as a CCD or a CMOS, for example, and continuously images the front of the vehicle at a very small fixed time Δt interval, for example, 2 ms interval while the host vehicle is running. To the image memory 102. As shown in FIG. 2, the camera 101 is installed in front of the interior of the vehicle, its visual axis direction Z is directed to the front front direction of the vehicle, and the horizontal axis X of the imaging surface is parallel to the ground surface. The vertical axis Y of the imaging surface is set to be perpendicular to the ground surface. The continuous images captured by the camera 101 are output to the image memory 102 and stored. A specific example of an image captured by the camera 101 is shown in FIG. The captured image 3a includes a stationary object 3b constituting the background and a moving object moving in a direction crossing the front of the host vehicle from the side of the road, that is, a pedestrian approaching from the side of the estimated traveling path of the host vehicle. 3c exists.

制御装置103は、撮像画像3a内に存在する各物体の画像内における横方向(水平方向)の移動速度、およびその移動方向を示す速度方向を速度成分とする速度情報を画像速度として算出する。そして算出した画像速度に基づいて、撮像画像3a内に存在する物体の中から、道路脇から自車両前方を横切る方向に移動してくる歩行者3cを検出する。そして、検出した歩行者3cの歩幅を推定し、推定した歩幅に基づいて、歩行者3cと自車両との間の距離を算出する。具体的には次のように処理する。   The control device 103 calculates the moving speed in the horizontal direction (horizontal direction) in the image of each object existing in the captured image 3a and the speed information having the speed direction indicating the moving direction as a speed component as the image speed. Based on the calculated image speed, a pedestrian 3c moving in a direction crossing the front of the host vehicle from the roadside is detected from objects existing in the captured image 3a. Then, the detected stride of the pedestrian 3c is estimated, and the distance between the pedestrian 3c and the host vehicle is calculated based on the estimated stride. Specifically, the processing is as follows.

まず、カメラ101で撮像された画像を画像メモリ102から取り込み、取り込んだ撮像画像3aに対して所定の閾値を用いて2値化することによって、画像内に存在する物体のエッジを抽出する。そして、抽出した画像内の各エッジに対して、細線化処理を行ってエッジの中心を正確に求める。そして、細線化されたエッジを、エッジ幅が一定の幅、例えば3画素分の幅になるように膨張させる。このように抽出したエッジを正規化することによって、各エッジが均一な幅を持ったエッジ画像を得ることができる。   First, an image picked up by the camera 101 is taken from the image memory 102, and the picked-up picked-up image 3a is binarized using a predetermined threshold value, thereby extracting an edge of an object present in the image. Then, thinning processing is performed on each edge in the extracted image to accurately obtain the center of the edge. Then, the thinned edge is expanded so that the edge width becomes a constant width, for example, a width corresponding to three pixels. By normalizing the extracted edges in this way, an edge image in which each edge has a uniform width can be obtained.

図4は、上述した抽出したエッジを正規化して、エッジ画像を得るために行う各処理の具体例を示す図である。すなわち、図4(a)に示す2値化して得たエッジに対して、細線化処理を行って図4(b)に示す細線化後のエッジを得る。そして、細線化したエッジを膨張させ、図4(c)に示すようにエッジに一定の幅を持たせる。   FIG. 4 is a diagram showing a specific example of each process performed to obtain the edge image by normalizing the extracted edge. That is, the thinning process is performed on the edge obtained by binarization shown in FIG. 4A to obtain the thinned edge shown in FIG. 4B. Then, the thinned edge is expanded to give the edge a certain width as shown in FIG.

その後、カウンタメモリ104に保存された画素カウンタの内、現在エッジ画像内にエッジが存在している画素に対応した画素カウンタのカウント値を更新する。画素カウンタとは、エッジ画像の各画素に対応したカウンタであり、エッジが存在する画素に対応する画素カウンタのカウント値に1を加算し、エッジが存在しない画素に対応する画素カウンタのカウント値は0で初期化する。このカウンタ値の更新処理を、カメラ101で連続的に撮像される毎フレームごとに行うことで、エッジ存在時間が長い画素はカウント値が大きく、エッジ存在時間が短い画素はカウント値が小さくなる。   Thereafter, among the pixel counters stored in the counter memory 104, the count value of the pixel counter corresponding to the pixel having an edge in the current edge image is updated. The pixel counter is a counter corresponding to each pixel of the edge image, and 1 is added to the count value of the pixel counter corresponding to the pixel where the edge exists, and the count value of the pixel counter corresponding to the pixel where the edge does not exist is Initialize with 0. By performing the updating process of the counter value for each frame continuously captured by the camera 101, a pixel having a long edge existence time has a large count value, and a pixel having a short edge existence time has a small count value.

そして、エッジ画像において、横方向に隣接するそれぞれの画素に対応する画素カウンタのカウント値の差分を取ることで各画素におけるエッジ存在時間の差を算出して、当該エッジが1画素移動するのに要する時間を得る。そして、この値の逆数を得ることで、各画素における画像空間内の横方向の速度を算出することができる。この各画素における画像空間内の横方向の速度は、各画素に含まれるエッジの横方向の移動速度に相当する。また、算出した移動速度が有する速度方向にエッジは移動していることになる。これによって、画像上の各画素における横方向のエッジの移動方向と移動速度、すなわち画像速度を算出することができる。   In the edge image, the difference in the edge existence time in each pixel is calculated by taking the difference in the count value of the pixel counter corresponding to each pixel adjacent in the horizontal direction, and the edge moves one pixel. Get the time it takes. Then, by obtaining the reciprocal of this value, the lateral speed in the image space at each pixel can be calculated. The horizontal speed in the image space of each pixel corresponds to the horizontal movement speed of the edge included in each pixel. Further, the edge is moving in the speed direction of the calculated moving speed. Thereby, the moving direction and moving speed of the horizontal edge in each pixel on the image, that is, the image speed can be calculated.

上述した処理で算出した画像速度に基づいて、撮像画像3a内に存在する横方向の速度成分を有する画素のうち、道路脇から自車両前方を横切る方向に移動してくる移動物体を構成するエッジを含む画素のみを抽出する。すなわち、一般的に、自車両が走行しているときに連続して撮像された撮像画像3aでは、図5に示すように、画像内で背景を構成する静止物体3bは、画像内のFOE(Focus of Expansion)5aから撮像画像3aの外方向に向かう放射状に速度方向を持つ。すなわち、自車両が直進しているときは静止物体3bは画像中央から画像外側に向かって湧き出すように移動する。これに対し道路脇から自車両前方を横切る方向に移動してくる歩行者3cは画像外側から画像中央に向かう横方向の移動速度を持つ。   Based on the image speed calculated in the above-described processing, among the pixels having the horizontal speed component existing in the captured image 3a, an edge constituting a moving object moving in the direction crossing the front of the host vehicle from the roadside Extract only the pixels that contain. That is, in general, in the captured image 3a continuously captured when the host vehicle is traveling, as shown in FIG. 5, the stationary object 3b constituting the background in the image is the FOE ( (Focus of Expansion) 5a has a velocity direction radially toward the outside of the captured image 3a. That is, when the host vehicle is traveling straight, the stationary object 3b moves from the center of the image toward the outside of the image. On the other hand, the pedestrian 3c moving in the direction crossing the front of the vehicle from the side of the road has a moving speed in the horizontal direction from the outside of the image toward the center of the image.

このことを加味して、撮像画像3a内から画像中央に向かう横方向の移動速度を持つ画素のみを抽出することによって、道路脇から自車両前方を横切る方向に移動してくるエッジを含む画素のみを抽出することができる。そして、抽出した画素がある範囲内に所定以上の密度で存在しており、かつその範囲内における画素の速度成分が近似している場合には、当該範囲内に存在する速度成分を有する画素は、個別の移動物体を構成していると判断する。すなわち、この範囲内には識別可能な個別の移動物体、例えば歩行者3cが存在していると判断する。   In consideration of this, by extracting only pixels having a moving speed in the horizontal direction from the captured image 3a toward the center of the image, only pixels including edges that move in the direction crossing the front of the vehicle from the roadside are extracted. Can be extracted. If the extracted pixels are present in a certain range at a predetermined density or more and the speed components of the pixels in the range are approximate, the pixels having the speed component present in the range are , It is determined that an individual moving object is configured. That is, it is determined that there is an individual moving object that can be identified, for example, a pedestrian 3c, within this range.

次に、このように撮像画像3a内から検出された歩行者3cの画像上におけるアスペクト比(縦横比)に基づいて、実空間上における歩行者3cの歩幅を推定する。すなわち、図6に示すように、撮像画像3a内で検出された歩行者3cの画像上における縦の長さ(身長)H、および横の長さ(歩幅)Wを算出し、W/Hをアスペクト比として算出する。算出した撮像画像3a内における歩行者3cのアスペクト比は、実空間上においても同様になる。すなわち、実空間上における身長をH、歩幅をWとすると、次式(1)に示す関係式が成り立つ。
:W = H:W ・・・(1)
Next, the stride of the pedestrian 3c in the real space is estimated based on the aspect ratio (aspect ratio) on the image of the pedestrian 3c detected from the captured image 3a. That is, as shown in FIG. 6, the vertical length (height) H D and the horizontal length (step length) W D on the image of the pedestrian 3 c detected in the captured image 3 a are calculated, and W D / a H D is calculated as the aspect ratio. The calculated aspect ratio of the pedestrian 3c in the captured image 3a is the same in the real space. That is, the height of the H R in the real space, if the stride and W R, holds the relationship expressed by a following equation (1).
H D : W D = H R : W R (1)

また、一般的に、実空間上における人間の身長Hと歩幅Wには、図7に示すような線形関係があり、次式(2)に示す関係式が成り立つことが知られている。
(m) = a・H(m)+b ・・・(2)
なお、変数aおよびbは、歩行者の年齢や性別などによって変化する。
したがって、式(1)および(2)より、歩行者3cの実空間上における歩幅Wは、次式(3)によって推定可能である。
= (−b・W/a)/(H−W/a) ・・・(3)
Also, in general, the human body height H R and stride W R in the real space, there is a linear relationship as shown in FIG. 7, it is known that the relationship expressed by a following expression (2) holds .
W R (m) = a · H R (m) + b (2)
The variables a and b vary depending on the age and sex of the pedestrian.
Therefore, stride W R in the formula (1) and (2) from, the real space of the pedestrian 3c can be estimated by the following equation (3).
W R = (− b · W D / a) / (H D −W D / a) (3)

例えば、実空間上における一般成人などの一般的な歩行者においては、歩行姿勢に基づいて設定された身長Hと歩幅Wとの既知の比に基づいて、式(2)において、a=1、b=−0.9とした次式(4)の関係式が成立することから、式(3)により、歩行者3cの実空間上における歩幅Wは、次式(5)によって推定可能である。
(m) = H(m)−0.9(m) ・・・(4)
(m) = 0.9・W/(H−W) ・・・(5)
For example, in a general pedestrian and general adult in the real space, based on the known ratio between the height H R and footstep W R that is set based on the walking posture, in the formula (2), a = since 1, b = -0.9 and the following equation relational expression (4) is satisfied, estimated by the formula (3), stride length W R in the real space of the pedestrian. 3c, by the following equation (5) Is possible.
W R (m) = H R (m) -0.9 (m) ··· (4)
W R (m) = 0.9 · W D / (H D -W D) ··· (5)

式(5)によって推定した歩幅を有する歩行者3cと、自車両との実空間上における位置関係は、図8(a)に示すようになる。この場合において、実空間上における自車両と歩行者3cとの間の推定距離Lは、カメラ101の焦点距離をFとすると、図8(b)に示すように模式的に表すことができ、次式(6)によって算出することができる。
L = F・W/W ・・・(6)
これによって、撮像画像3a内に存在する物体の中から、道路脇から自車両前方を横切る方向に移動してくる歩行者3cの歩幅を推定し、推定した歩幅に基づいて、歩行者3cと自車両との間の推定距離を算出することができる。
The positional relationship in real space between the pedestrian 3c having the stride estimated by the equation (5) and the own vehicle is as shown in FIG. In this case, the estimated distance L between the own vehicle and the pedestrian 3c in the real space can be schematically represented as shown in FIG. 8B, where F is the focal length of the camera 101, It can be calculated by the following equation (6).
L = F · W R / W D (6)
As a result, the stride of the pedestrian 3c moving in the direction crossing the front of the host vehicle from the side of the road is estimated from among the objects present in the captured image 3a, and the pedestrian 3c and the self are determined based on the estimated stride. An estimated distance from the vehicle can be calculated.

図9は、第1の実施の形態における画像処理装置100の処理を示すフローチャートである。図9に示す処理は、車両のイグニションスイッチがオンされて、画像処理装置100の電源がオンされると制御装置103によって実行される。ステップS10において、カメラ101で撮像された自車両前方の画像3aを画像メモリ102から取り込む。その後、ステップS20へ進み、上述したように、画像3aに対してエッジ抽出処理を行って、撮像画像3a内に存在する物体の輪郭を抽出したエッジ画像を生成する。そして、各画素における画素カウンタのカウント値に基づいて画像速度を算出する。   FIG. 9 is a flowchart illustrating processing of the image processing apparatus 100 according to the first embodiment. The processing shown in FIG. 9 is executed by the control device 103 when the ignition switch of the vehicle is turned on and the power of the image processing device 100 is turned on. In step S <b> 10, an image 3 a in front of the host vehicle captured by the camera 101 is captured from the image memory 102. Thereafter, the process proceeds to step S20, and as described above, edge extraction processing is performed on the image 3a to generate an edge image in which the contour of the object existing in the captured image 3a is extracted. Then, the image speed is calculated based on the count value of the pixel counter in each pixel.

その後、ステップS30へ進み、撮像画像3a内において画像中央に向かう横方向の移動速度を持つ画素のみを抽出して、撮像画像3a内に存在する歩行者3cを検出して、ステップS40へ進む。ステップS40では、撮像画像3a内で検出した歩行者3cのアスペクト比を算出して、ステップS50へ進み、算出したアスペクト比に基づいて、上述した式(5)により歩行者3cの実空間上における歩幅Wを推定する。その後、ステップS60へ進む。 Thereafter, the process proceeds to step S30, where only the pixels having a lateral movement speed toward the center of the image are extracted in the captured image 3a, the pedestrian 3c existing in the captured image 3a is detected, and the process proceeds to step S40. In step S40, the aspect ratio of the pedestrian 3c detected in the captured image 3a is calculated, and the process proceeds to step S50. Based on the calculated aspect ratio, the above-described equation (5) is used to calculate the pedestrian 3c in the real space. to estimate the stride W R. Thereafter, the process proceeds to step S60.

ステップS60では、撮像画像3a上における歩行者の歩幅、実空間上における歩行者の歩幅W 、およびカメラ101の焦点距離Fに基づいて、上述した式(6)により自車両と歩行者3cとの間の推定距離Lを算出する。その後、ステップS70へ進み、自車両のイグニションスイッチがオフされたか否かを判断し、オフされないと判断した場合には、ステップS10へ戻って処理を繰り返す。これに対して、自車両のイグニションスイッチがオフされたと判断した場合には、処理を終了する。
In step S60, the pedestrian stride on the captured image 3a, footstep W R of the pedestrian in the real space, and on the basis of the focal length F of the camera 101, by the above-mentioned equation (6) and the vehicle pedestrian 3c and An estimated distance L is calculated. Then, it progresses to step S70, it is judged whether the ignition switch of the own vehicle was turned off, and when it judges that it is not turned off, it returns to step S10 and repeats a process. On the other hand, if it is determined that the ignition switch of the host vehicle has been turned off, the process is terminated.

以上説明した第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)撮像画像3a上における歩行者のアスペクト比を算出し、算出したアスペクト比、および一般的な歩行者の身長と歩幅との関係に基づいて、実空間上における歩行者の歩幅 を推定することとした。これによって、一般的な歩行者は身長と歩幅が線形関係になることを加味して、精度高く歩行者の歩幅 を推定することができる。
(2)推定した実空間上における歩行者の歩幅 撮像画像3a上における歩行者の歩幅 、およびカメラ101の焦点距離に基づいて、自車両と歩行者との間の推定距離を算出することとした。これによって、歩行者までの距離を計測するための特別な計測機器を用いずに、用意に自車両と歩行者との間の距離を推定することができる。
(3)撮像画像3a内において画像中央に向かう横方向の移動速度を持つ画素で構成される移動物体を撮像画像3a内に存在する歩行者3cとして検出するようにした。これによって、一般的に、自車両が直進しているときは静止物体などの背景は画像中央から画像外側に向かう速度成分を有するのに対して、自車両に道路脇から接近してくる歩行者は、画像外側から画像中央に向かう速度成分を有することを加味して、正確に道路脇から自車両前方を横切る方向に移動してくる歩行者のみを検出することができる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) to calculate the aspect ratio of the pedestrian in the captured image 3a, calculated aspect ratio, and based on the relationship between the general pedestrian height and stride, the stride W R of the pedestrian in the real space It was decided to estimate. Thus, a typical pedestrian may be height and stride by adding to become linear relationship to estimate a stride W R of accurately pedestrians.
(2) estimated pedestrian stride W R in the real space, footstep W D of the pedestrian in the captured image 3a, and on the basis of the focal length F of the camera 101, the estimated distance between the host vehicle and pedestrian L was to be calculated. This makes it possible to estimate the distance L between the host vehicle and the pedestrian without using a special measuring device for measuring the distance to the pedestrian.
(3) A moving object composed of pixels having a moving speed in the horizontal direction toward the center of the image in the captured image 3a is detected as a pedestrian 3c existing in the captured image 3a. Thus, in general, when the host vehicle is traveling straight, the background of a stationary object or the like has a speed component from the center of the image to the outside of the image, whereas the pedestrian approaching the host vehicle from the side of the road. In consideration of having a speed component from the outside of the image toward the center of the image, only a pedestrian moving in a direction crossing the front of the host vehicle from the roadside can be detected accurately.

―第2の実施の形態―
第2の実施の形態では、高齢者は第1の実施の形態で上述した一般成人などの一般的な歩行者とはアスペクト比が異なることを考慮して、画像内で検出した歩行者の歩幅を推定し、自車両から歩行者までの推定距離を算出する。なお、図1〜図5の各図については、第1の実施の形態と同様のため、説明を省略する。
-Second embodiment-
In the second embodiment, taking into account that an elderly person has an aspect ratio different from that of a general pedestrian such as the general adult described in the first embodiment, the stride of the pedestrian detected in the image. And the estimated distance from the vehicle to the pedestrian is calculated. 1 to 5 are the same as those in the first embodiment, and the description thereof is omitted.

図10(a)に示すように、高齢者10aは、一般成人10bよりも相対的な歩幅WD2が小さいことが一般的である。よって、高齢者10aのアスペクト比、すなわちWD2/HD2は一般成人10bよりも小さくなる。このため、制御装置103は、撮像画像3a内から検出された道路脇から自車両前方を横切る方向に移動してくる歩行者のアスペクト比が、あらかじめ設定した所定値以下である場合には、当該歩行者は高齢者であると判定する。 As shown in FIG. 10 (a), elderly 10a, it generally adult relative stride W D2 than 10b is small in general. Therefore, the aspect ratio of the elderly 10a, that is, W D2 / H D2 is smaller than that of the general adult 10b. For this reason, when the aspect ratio of the pedestrian moving in the direction crossing the front of the vehicle from the side of the road detected from the captured image 3a is equal to or less than a predetermined value set in advance, the control device 103 It is determined that the pedestrian is an elderly person.

また、上述したように高齢者10aのアスペクト比は一般成人10bとは異なることから、図10(b)に示すように、高齢者10aの実空間上における身長HR2と歩幅WR2との関係は、一般成人10bにおける身長Hと歩幅Wとの線形関係10dとは異なる線形関係10cとなる。したがって、撮像画像3a内で検出された歩行者が高齢者である場合には、第1の実施の形態における式(5)とは異なる関係式、すなわち次式(7)によって実空間上における歩行者の歩幅を推定する必要がある。
(m) = a´・H(m)+b´ ・・・(7)
The aspect ratio of the elderly 10a as described above from different than the general adult 10b, as shown in FIG. 10 (b), the relationship between the height H R2 and stride W R2 in the real space of the elderly 10a is a different linear relationship 10c is a linear relationship 10d between height H R and stride W R in the general adult 10b. Therefore, when the pedestrian detected in the captured image 3a is an elderly person, walking in the real space according to a relational expression different from the expression (5) in the first embodiment, that is, the following expression (7): It is necessary to estimate the person's stride.
W R (m) = a ′ · H R (m) + b ′ (7)

例えば、実空間上における高齢者10aの身長HR2と歩幅WR2においては、式(7)において、a´=1/2、b´=−0.5とした次式(8)の関係式が成立することが知られていることから、第1の実施の形態における式(3)より、高齢者10aの実空間上における歩幅WR2は、次式(9)によって推定可能である。
R2(m) = HR2(m)/2−0.5(m) ・・・(8)
R2(m) = WD2/(HD2−2・WD2) ・・・(9)
For example, in the height H R2 and stride W R2 elderly 10a in the real space, in equation (7), a'= 1/ 2, b'= -0.5 and the following relational expression (8) since There are known to be established, the equation (3) in the first embodiment, footstep W R2 in the real space of the elderly 10a can be estimated by the following equation (9).
W R2 (m) = H R2 (m) /2-0.5 (m) (8)
W R2 (m) = W D2 / (H D2 −2 · W D2 ) (9)

したがって、実空間上における自車両と高齢者10aとの間の推定距離Lは、式(9)で算出した高齢者10aの歩幅WR2に基づいて、第1の実施の形態における式(6)より、次式(10)によって算出することができる。
L = F・WR2/WD2 ・・・(10)
これによって、撮像画像3a内から検出された道路脇から自車両前方を横切る方向に移動してくる歩行者が高齢者である場合でも、歩幅を推定して高齢者10aと自車両との間の推定距離を算出することができる。
Thus, the estimated distance L between the host vehicle and the elderly 10a in the real space, based on the stride W R2 elderly 10a calculated by the equation (9), wherein in the first embodiment (6) Therefore, it is computable by following Formula (10).
L = F · W R2 / W D2 (10)
Thereby, even when the pedestrian moving in the direction crossing the front of the host vehicle from the side of the road detected from the captured image 3a is an elderly person, the stride is estimated and the distance between the elderly person 10a and the host vehicle is estimated. An estimated distance can be calculated.

図11は、第2の実施の形態における画像処理装置100の処理を示すフローチャートである。図11に示す処理は、車両のイグニションスイッチがオンされて、画像処理装置100の電源がオンされると制御装置103によって実行される。なお、第1の実施の形態における図9と共通する処理については同じステップ番号を付与し、相違点を中心に説明する。   FIG. 11 is a flowchart illustrating processing of the image processing apparatus 100 according to the second embodiment. The processing shown in FIG. 11 is executed by the control device 103 when the ignition switch of the vehicle is turned on and the image processing apparatus 100 is turned on. Note that the same step numbers are assigned to the processes common to those in FIG. 9 in the first embodiment, and differences will be mainly described.

ステップS41において、算出した歩行者のアスペクト比があらかじめ設定した所定値以下であるか否かを判定する。アスペクト比が所定値より大きいと判断した場合には、ステップS42へ進む。ステップS42では、検出された歩行者は一般成人であると判断して、ステップS51へ進み、一般成人用の歩幅推定式、すなわち第1の実施の形態で上述した式(5)によって、歩行者の歩幅Wを推定する。その後、ステップS60へ進む。 In step S41, it is determined whether or not the calculated pedestrian aspect ratio is equal to or less than a predetermined value set in advance. If it is determined that the aspect ratio is greater than the predetermined value, the process proceeds to step S42. In step S42, it is determined that the detected pedestrian is a general adult, and the process proceeds to step S51, where the pedestrian is calculated according to the general adult stride estimation formula, that is, the formula (5) described above in the first embodiment. estimating a stride W R. Thereafter, the process proceeds to step S60.

これに対して、アスペクト比が所定値以下である判断した場合には、ステップS43へ進む。ステップS43では、検出された歩行者は高齢者であると判断して、ステップS52へ進み、高齢者用の歩幅推定式、すなわち式(9)によって、歩行者の歩幅WR2を推定する。その後、ステップS60へ進む。 On the other hand, if it is determined that the aspect ratio is equal to or less than the predetermined value, the process proceeds to step S43. In step S43, it is determined that the detected pedestrian is an elderly person, the process proceeds to step S52, and the pedestrian's stride WR2 is estimated by a step estimation formula for elderly persons, that is, equation (9). Thereafter, the process proceeds to step S60.

以上説明した第2の実施の形態によれば、第1の実施の形態における作用効果に加えて以下のような効果を得ることができる。
(1)撮像画像内で検出された歩行者が一般成人であるか高齢者であるかを判定して、判定結果に基づいて歩幅の推定方法を変化させるようにした。これによって、高齢者は、一般成人よりも歩幅が小さいという、一般成人との歩行姿勢の違いを加味して、より精度高く歩幅を推定することができる。
(2)撮像画像内で検出された歩行者のアスペクト比が、あらかじめ設定した所定値以下である場合には、当該歩行者は高齢者であると判定するようにした。これによって、高齢者と一般成人との歩行姿勢の違いを考慮して、歩行者が一般成人であるか高齢者であるかを的確に判定することができる。
According to the second embodiment described above, the following effects can be obtained in addition to the functions and effects of the first embodiment.
(1) It is determined whether the pedestrian detected in the captured image is a general adult or an elderly person, and the step length estimation method is changed based on the determination result. Thus, an elderly person can estimate the stride with higher accuracy in consideration of the difference in walking posture from the general adult that the stride is smaller than that of the general adult.
(2) When the aspect ratio of the pedestrian detected in the captured image is equal to or less than a predetermined value set in advance, the pedestrian is determined to be an elderly person. Accordingly, it is possible to accurately determine whether the pedestrian is a general adult or an elderly person in consideration of the difference in walking posture between the elderly and the general adult.

―変形例―
なお、上述した実施の形態における画像処理装置は、以下のように変形することもできる。
(1)上述した第1、および第2の実施の形態では、本発明による画像処理装置100を車両に搭載する例について説明したが、これに限定されず、その他の移動体に搭載してもよい。
-Modification-
Note that the image processing apparatus according to the above-described embodiment can be modified as follows.
(1) In the above-described first and second embodiments, the example in which the image processing apparatus 100 according to the present invention is mounted on a vehicle has been described. However, the present invention is not limited to this, and the image processing apparatus 100 may be mounted on another moving body. Good.

(2)上述した第1、および第2の実施の形態では、撮像画像に対してエッジ抽出処理を行ってエッジ画像を得た後、エッジが存在する画素の画素カウンタを更新していき、当該画素カウンタのカウント値に基づいて画像上の各画素におけるエッジの速度成分を算出する例について説明した。しかし、これに限定されず、例えば一般的な手法である勾配法やブロックマッチングを用いてオプティカルフローを算出してもよい。 (2) In the first and second embodiments described above, after performing edge extraction processing on a captured image to obtain an edge image, the pixel counter of the pixel in which the edge exists is updated, The example in which the velocity component of the edge in each pixel on the image is calculated based on the count value of the pixel counter has been described. However, the present invention is not limited to this, and the optical flow may be calculated using, for example, a general method such as a gradient method or block matching.

(3)上述した第1、および第2の実施の形態では、歩行者のアスペクト比、および身長と歩幅の線形関係に基づいて歩行者の歩幅を推定した。そして、推定した歩幅に基づいて自車両と歩行者との間の推定距離を算出する例について説明した。しかし、これに限定されず、歩行者のアスペクト比、および身長と歩幅の線形関係に基づいて歩行者の身長を推定し、推定した身長に基づいて自車両と歩行者との間の推定距離を算出してもよい。 (3) In the first and second embodiments described above, the pedestrian's stride is estimated based on the aspect ratio of the pedestrian and the linear relationship between the height and the stride. And the example which calculates the estimated distance between the own vehicle and a pedestrian based on the estimated stride was demonstrated. However, the present invention is not limited to this, and the pedestrian's height is estimated based on the pedestrian's aspect ratio and the linear relationship between the height and the stride, and the estimated distance between the vehicle and the pedestrian is calculated based on the estimated height. It may be calculated.

(4)上述した第2の実施の形態では、撮像画像内で検出された歩行者を、アスペクト比に基づいて一般成人、および高齢者のいずれかであると判定して、一般成人、および高齢者用のそれぞれに対応した歩幅推定用計算式を適用して歩幅を推定するようにした。しかしこれに限定されず、歩行者の種類として、アスペクト比の違いにより判定可能なその他の歩行者の種類、例えば子供や男性女性などを区別し、それぞれの種類に応じた歩幅推定用計算式を適用して歩幅を推定するようにしてもよい。 (4) In the second embodiment described above, the pedestrian detected in the captured image is determined to be either a general adult or an elderly person based on the aspect ratio, and the general adult and the elderly The stride length is estimated by applying a formula for estimating the stride length corresponding to each person. However, the present invention is not limited to this, and as a type of pedestrian, other types of pedestrians that can be determined based on differences in aspect ratio, such as children and men and women, are distinguished, and a calculation formula for stride estimation corresponding to each type is provided. You may make it estimate a stride by applying.

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.

特許請求の範囲の構成要素と実施の形態との対応関係について説明する。カメラ101は撮像手段に、制御装置103は速度情報算出手段、歩行者検出手段、算出手段、歩幅推定手段、距離推定手段、および歩行者判定手段に相当する。なお、この対応は一例であり、実施の形態の構成によって対応関係は異なるものである。   The correspondence between the constituent elements of the claims and the embodiment will be described. The camera 101 corresponds to imaging means, and the control device 103 corresponds to speed information calculation means, pedestrian detection means, calculation means, stride estimation means, distance estimation means, and pedestrian determination means. This correspondence is an example, and the correspondence is different depending on the configuration of the embodiment.

画像処理装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of an image processing apparatus. カメラ101の車両への設置例を示す図である。It is a figure which shows the example of installation to the vehicle of the camera 101. FIG. カメラ101で撮像した画像の具体例を示す図である。It is a figure which shows the specific example of the image imaged with the camera. 抽出したエッジを正規化して、エッジ画像を得るために行う各処理の具体例を示す図である。It is a figure which shows the specific example of each process performed in order to normalize the extracted edge and to obtain an edge image. 自車両が走行しているときに連続して撮像された撮像画像において各物体で検出される速度方向の具体例を示す図である。It is a figure which shows the specific example of the speed direction detected by each object in the captured image continuously imaged when the own vehicle is drive | working. 撮像画像内で検出された歩行者の画像上における縦の長さ(高さ)H、および横の長さ(歩幅)Wを示す図である。It is a diagram illustrating the vertical length (height) H D, and the lateral length (stride) W D on pedestrian image detected in the captured image. 実空間上における人間の縦の長さ(身長)Hと歩幅Wの線形関係を示す図である。It is a graph showing the linear relationship of the human vertical length (height) H R and stride W R in the real space. 歩行者と自車両との実空間上における位置関係の具体例を示す図である。It is a figure which shows the specific example of the positional relationship on the real space of a pedestrian and the own vehicle. 第1の実施の形態における画像処理装置100の処理を示すフローチャート図である。It is a flowchart figure which shows the process of the image processing apparatus 100 in 1st Embodiment. 第2の実施の形態における一般成人と高齢者のアスペクト比の違いを表す図である。It is a figure showing the difference in the aspect ratio of the general adult and elderly person in 2nd Embodiment. 第2の実施の形態における画像処理装置100の処理を示すフローチャート図である。It is a flowchart figure which shows the process of the image processing apparatus 100 in 2nd Embodiment.

符号の説明Explanation of symbols

100 画像処理装置
101 カメラ
102 画像メモリ
103 制御装置
104 カウンタメモリ
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 101 Camera 102 Image memory 103 Control apparatus 104 Counter memory

Claims (3)

自車両前方の画像を撮像する撮像手段と、
前記撮像手段で撮像した画像を画像処理して、画像上の各画素から検出されたエッジの横方向の移動速度、および移動方向を画像速度として算出する画像速度算出手段と、
前記画像速度算出手段で算出した前記画像速度に基づいて、自車両の推定進行経路に側方から接近してくる歩行者を検出する歩行者検出手段と、
前記歩行者検出手段で検出した歩行者の画像内における身長と歩幅を算出する算出手段と、
前記算出手段で算出した歩行者の画像内における身長と歩幅との比、および人間の歩行姿勢に基づいてあらかじめ設定された所定の身長と歩幅との比に基づいて、実空間上における歩行者の歩幅を推定する歩幅推定手段と、
前記歩幅推定手段で推定した実空間上における歩行者の歩幅に基づいて、自車両から歩行者までの距離を推定する距離推定手段とを備えることを特徴とする画像処理装置。
Imaging means for capturing an image in front of the host vehicle;
Image speed calculation means for performing image processing on an image captured by the imaging means , and calculating a lateral movement speed of an edge detected from each pixel on the image, and a movement direction as an image speed ;
Pedestrian detection means for detecting a pedestrian approaching from the side of the estimated traveling path of the host vehicle based on the image speed calculated by the image speed calculation means;
Calculating means for calculating the height and stride in the image of the pedestrian detected by the pedestrian detecting means;
Based on the ratio between the height and the stride in the image of the pedestrian calculated by the calculating means, and the ratio between the predetermined height and the stride that is preset based on the human walking posture, the pedestrian in the real space Stride estimation means for estimating stride,
An image processing apparatus comprising: a distance estimating unit that estimates a distance from the host vehicle to a pedestrian based on a pedestrian's stride in real space estimated by the stride estimating unit.
請求項1に記載の画像処理装置において、
前記歩行者検出手段で検出した歩行者の種類を、前記算出手段で算出した歩行者の画像内における身長と歩幅との比に基づいて判定する歩行者判定手段をさらに備え、
前記歩幅推定手段は、前記歩行者判定手段で判定した歩行者の種類に応じた推定方法で歩行者の歩幅を推定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
Pedestrian determination means for determining the type of pedestrian detected by the pedestrian detection means based on the ratio of the height and the stride in the image of the pedestrian calculated by the calculation means,
The image processing apparatus according to claim 1, wherein the stride estimation means estimates a stride of a pedestrian by an estimation method according to a pedestrian type determined by the pedestrian determination means.
撮像手段で撮像した自車両前方の画像を画像処理して、画像上の各画素から検出されたエッジの横方向の移動速度、および移動方向を画像速度として算出し、
算出した前記画像速度に基づいて、自車両の推定進行経路に側方から接近してくる歩行者を検出し、
検出した歩行者の画像内における身長と歩幅を算出し、
算出した歩行者の画像内における身長と歩幅との比、および人間の歩行姿勢に基づいてあらかじめ設定された所定の身長と歩幅との比に基づいて、実空間上における歩行者の歩幅を推定し、
推定した実空間上における歩行者の歩幅に基づいて、自車両から歩行者までの距離を推定することを特徴とする画像処理方法。
Image processing is performed on the image in front of the host vehicle captured by the imaging unit, and the lateral movement speed of the edge detected from each pixel on the image and the movement direction are calculated as the image speed ,
Based on the calculated image speed , detect a pedestrian approaching from the side of the estimated traveling path of the vehicle,
Calculate the height and stride in the detected pedestrian image,
Estimate the pedestrian's stride in real space based on the ratio between the height and the stride in the calculated pedestrian image and the ratio between the predetermined stature and the stride set in advance based on the human walking posture. ,
An image processing method characterized by estimating a distance from a host vehicle to a pedestrian based on a pedestrian's stride in an estimated real space.
JP2004362601A 2004-12-15 2004-12-15 Image processing apparatus and method Expired - Fee Related JP4062306B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004362601A JP4062306B2 (en) 2004-12-15 2004-12-15 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004362601A JP4062306B2 (en) 2004-12-15 2004-12-15 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2006172063A JP2006172063A (en) 2006-06-29
JP4062306B2 true JP4062306B2 (en) 2008-03-19

Family

ID=36672759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004362601A Expired - Fee Related JP4062306B2 (en) 2004-12-15 2004-12-15 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4062306B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102640182A (en) * 2009-11-25 2012-08-15 本田技研工业株式会社 Target-object distance measuring device and vehicle mounted with the device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008197720A (en) * 2007-02-08 2008-08-28 Mitsubishi Electric Corp Pedestrian warning device
CN101470806B (en) * 2007-12-27 2012-06-27 东软集团股份有限公司 Vehicle lamp detection method and apparatus, interested region splitting method and apparatus
JP7101080B2 (en) * 2018-08-13 2022-07-14 セコム株式会社 Image processing equipment
JP2022032103A (en) * 2020-08-11 2022-02-25 トヨタ自動車株式会社 Walking estimation system, walking estimation method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102640182A (en) * 2009-11-25 2012-08-15 本田技研工业株式会社 Target-object distance measuring device and vehicle mounted with the device
CN102640182B (en) * 2009-11-25 2014-10-15 本田技研工业株式会社 Target-object distance measuring device and vehicle mounted with the device

Also Published As

Publication number Publication date
JP2006172063A (en) 2006-06-29

Similar Documents

Publication Publication Date Title
US9836657B2 (en) System and method for periodic lane marker identification and tracking
JP4811201B2 (en) Runway boundary line detection apparatus and runway boundary line detection method
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
US7512494B2 (en) Vehicle mounted image processor and method of use
JP5075672B2 (en) Object detection apparatus and method
JPH11213137A (en) Image processor
JP6138861B2 (en) Distance calculation device
WO2008020598A1 (en) Subject number detecting device and subject number detecting method
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
US20090052742A1 (en) Image processing apparatus and method thereof
JP3729025B2 (en) Pedestrian detection device
JP2007249257A (en) Apparatus and method for detecting movable element
JP5107154B2 (en) Motion estimation device
JPH09218937A (en) Compartment line detector
JP2009012521A (en) Traveling support system and traveling support method for vehicle
JP4062306B2 (en) Image processing apparatus and method
JP4321410B2 (en) Object detection apparatus and method
JP5464073B2 (en) Outside environment recognition device, outside environment recognition method
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP5903901B2 (en) Vehicle position calculation device
JP4692081B2 (en) On-vehicle object detection device and object detection method
JP2006010652A (en) Object-detecting device
CN112513573B (en) Stereo camera device
JP4096932B2 (en) Vehicle collision time estimation apparatus and vehicle collision time estimation method
JP2015215235A (en) Object detection device and object detection method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071217

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees