JP4062306B2 - Image processing apparatus and method - Google Patents
Image processing apparatus and method Download PDFInfo
- Publication number
- JP4062306B2 JP4062306B2 JP2004362601A JP2004362601A JP4062306B2 JP 4062306 B2 JP4062306 B2 JP 4062306B2 JP 2004362601 A JP2004362601 A JP 2004362601A JP 2004362601 A JP2004362601 A JP 2004362601A JP 4062306 B2 JP4062306 B2 JP 4062306B2
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- image
- stride
- calculated
- speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、車両に搭載されたカメラによって撮像された画像を処理する画像処理装置、および方法に関する。 The present invention relates to an image processing apparatus and method for processing an image captured by a camera mounted on a vehicle.
次のような歩行者検出装置が特許文献1によって知られている。この歩行者検出装置では、水平方向に並列に配置された一対のステレオカメラで撮像された画像を画像処理して、周辺に存在する歩行者を検出し、歩行者までの距離を算出する。 The following pedestrian detection device is known from Patent Document 1. In this pedestrian detection device, an image captured by a pair of stereo cameras arranged in parallel in the horizontal direction is subjected to image processing, pedestrians existing in the vicinity are detected, and a distance to the pedestrian is calculated.
しかしながら、従来の装置のようにステレオカメラを使用する場合には、カメラ同士のキャリブレーション作業などが必要となるため、カメラのコストが高くなるという問題が生じていた。 However, when a stereo camera is used as in the conventional apparatus, a calibration work between the cameras is required, which causes a problem that the cost of the camera increases.
本発明は、撮像手段で撮像した自車両前方の画像を画像処理して、画像上の各画素から検出されたエッジの横方向の移動速度、および移動方向を画像速度として算出し、算出した画像速度に基づいて、自車両の推定進行経路に側方から接近してくる歩行者を検出し、検出した歩行者の画像内における身長と歩幅を算出し、算出した歩行者の画像内における身長と歩幅との比、および人間の歩行姿勢に基づいてあらかじめ設定された所定の身長と歩幅との比に基づいて、実空間上における歩行者の歩幅を推定し、推定した実空間上における歩行者の歩幅に基づいて、自車両から歩行者までの距離を推定することを特徴とする。
The present invention performs image processing on an image in front of the host vehicle imaged by an imaging unit, calculates the lateral movement speed and movement direction of an edge detected from each pixel on the image, and calculates the calculated image. Based on the speed , the pedestrian approaching from the side of the estimated traveling path of the own vehicle is detected, the height and the stride in the detected pedestrian image are calculated, and the calculated height in the pedestrian image is calculated. The pedestrian's stride in the real space is estimated based on the ratio between the stride and the ratio between the predetermined height and the stride that is set in advance based on the human walking posture. The distance from the own vehicle to the pedestrian is estimated based on the stride.
本発明によれば、撮像手段で撮像した自車両前方の画像を画像処理して、画像上の各画素から検出されたエッジの横方向の移動速度、および移動方向を画像速度として算出し、算出した画像速度に基づいて、自車両の推定進行経路に側方から接近してくる歩行者を検出するようにした。また、実空間上における歩行者の歩幅を推定し、推定した歩行者の歩幅に基づいて自車両から歩行者までの距離を推定することとした。これによって、1台のカメラで撮像した画像に基づいて、歩行者の検出、および歩行者までの距離の推定を行うことができ、コスト面で有利となる。
According to the present invention, the image in front of the host vehicle captured by the imaging unit is subjected to image processing , and the lateral movement speed and the movement direction of the edge detected from each pixel on the image are calculated as the image speed. Based on the obtained image speed , a pedestrian approaching from the side of the estimated traveling path of the own vehicle is detected. In addition, the pedestrian's stride in real space is estimated, and the distance from the vehicle to the pedestrian is estimated based on the estimated pedestrian's stride. This makes it possible to detect a pedestrian and estimate the distance to the pedestrian based on an image captured by one camera, which is advantageous in terms of cost.
―第1の実施の形態―
図1は、第1の実施の形態における画像処理装置の一実施の形態の構成例を示すブロック図である。画像処理装置100は車両に搭載され、車両前方を撮像するカメラ101と、カメラ101で撮像した画像を格納する画像メモリ102と、カメラ101で撮像されて画像メモリ102に記憶した画像に対して後述する画像処理を実行する制御装置103と、後述する画素カウンタのカウント値を記憶するカウンタメモリ104とを備えている。
-First embodiment-
FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an image processing apparatus according to the first embodiment. The
カメラ101は、例えばCCDやCMOSなどの撮像素子を有した高速カメラであり、自車両の走行中に極めて微小な一定時間Δt間隔、例えば2ms間隔で連続的に車両前方を撮像し、各フレームごとに画像メモリ102に出力する。なお、カメラ101は、図2に示すように車両の室内上部前方に設置され、その視軸向きZは車両前方正面方向に向き、撮像面の水平軸Xは地表面と平行となるように、また撮像面の垂直軸Yは地表面と垂直になるように設定されている。カメラ101で撮像した連続画像は、画像メモリ102に出力されて格納される。カメラ101で撮像した画像の具体例を図3に示す。撮像画像3a内には、背景を構成する静止物体3b、および道路脇から自車両前方を横切る方向に移動してくる移動物体、すなわち自車両の推定進行経路に側方から接近してくる歩行者3cが存在している。
The
制御装置103は、撮像画像3a内に存在する各物体の画像内における横方向(水平方向)の移動速度、およびその移動方向を示す速度方向を速度成分とする速度情報を画像速度として算出する。そして算出した画像速度に基づいて、撮像画像3a内に存在する物体の中から、道路脇から自車両前方を横切る方向に移動してくる歩行者3cを検出する。そして、検出した歩行者3cの歩幅を推定し、推定した歩幅に基づいて、歩行者3cと自車両との間の距離を算出する。具体的には次のように処理する。
The
まず、カメラ101で撮像された画像を画像メモリ102から取り込み、取り込んだ撮像画像3aに対して所定の閾値を用いて2値化することによって、画像内に存在する物体のエッジを抽出する。そして、抽出した画像内の各エッジに対して、細線化処理を行ってエッジの中心を正確に求める。そして、細線化されたエッジを、エッジ幅が一定の幅、例えば3画素分の幅になるように膨張させる。このように抽出したエッジを正規化することによって、各エッジが均一な幅を持ったエッジ画像を得ることができる。
First, an image picked up by the
図4は、上述した抽出したエッジを正規化して、エッジ画像を得るために行う各処理の具体例を示す図である。すなわち、図4(a)に示す2値化して得たエッジに対して、細線化処理を行って図4(b)に示す細線化後のエッジを得る。そして、細線化したエッジを膨張させ、図4(c)に示すようにエッジに一定の幅を持たせる。 FIG. 4 is a diagram showing a specific example of each process performed to obtain the edge image by normalizing the extracted edge. That is, the thinning process is performed on the edge obtained by binarization shown in FIG. 4A to obtain the thinned edge shown in FIG. 4B. Then, the thinned edge is expanded to give the edge a certain width as shown in FIG.
その後、カウンタメモリ104に保存された画素カウンタの内、現在エッジ画像内にエッジが存在している画素に対応した画素カウンタのカウント値を更新する。画素カウンタとは、エッジ画像の各画素に対応したカウンタであり、エッジが存在する画素に対応する画素カウンタのカウント値に1を加算し、エッジが存在しない画素に対応する画素カウンタのカウント値は0で初期化する。このカウンタ値の更新処理を、カメラ101で連続的に撮像される毎フレームごとに行うことで、エッジ存在時間が長い画素はカウント値が大きく、エッジ存在時間が短い画素はカウント値が小さくなる。
Thereafter, among the pixel counters stored in the
そして、エッジ画像において、横方向に隣接するそれぞれの画素に対応する画素カウンタのカウント値の差分を取ることで各画素におけるエッジ存在時間の差を算出して、当該エッジが1画素移動するのに要する時間を得る。そして、この値の逆数を得ることで、各画素における画像空間内の横方向の速度を算出することができる。この各画素における画像空間内の横方向の速度は、各画素に含まれるエッジの横方向の移動速度に相当する。また、算出した移動速度が有する速度方向にエッジは移動していることになる。これによって、画像上の各画素における横方向のエッジの移動方向と移動速度、すなわち画像速度を算出することができる。 In the edge image, the difference in the edge existence time in each pixel is calculated by taking the difference in the count value of the pixel counter corresponding to each pixel adjacent in the horizontal direction, and the edge moves one pixel. Get the time it takes. Then, by obtaining the reciprocal of this value, the lateral speed in the image space at each pixel can be calculated. The horizontal speed in the image space of each pixel corresponds to the horizontal movement speed of the edge included in each pixel. Further, the edge is moving in the speed direction of the calculated moving speed. Thereby, the moving direction and moving speed of the horizontal edge in each pixel on the image, that is, the image speed can be calculated.
上述した処理で算出した画像速度に基づいて、撮像画像3a内に存在する横方向の速度成分を有する画素のうち、道路脇から自車両前方を横切る方向に移動してくる移動物体を構成するエッジを含む画素のみを抽出する。すなわち、一般的に、自車両が走行しているときに連続して撮像された撮像画像3aでは、図5に示すように、画像内で背景を構成する静止物体3bは、画像内のFOE(Focus of Expansion)5aから撮像画像3aの外方向に向かう放射状に速度方向を持つ。すなわち、自車両が直進しているときは静止物体3bは画像中央から画像外側に向かって湧き出すように移動する。これに対し道路脇から自車両前方を横切る方向に移動してくる歩行者3cは画像外側から画像中央に向かう横方向の移動速度を持つ。
Based on the image speed calculated in the above-described processing, among the pixels having the horizontal speed component existing in the captured
このことを加味して、撮像画像3a内から画像中央に向かう横方向の移動速度を持つ画素のみを抽出することによって、道路脇から自車両前方を横切る方向に移動してくるエッジを含む画素のみを抽出することができる。そして、抽出した画素がある範囲内に所定以上の密度で存在しており、かつその範囲内における画素の速度成分が近似している場合には、当該範囲内に存在する速度成分を有する画素は、個別の移動物体を構成していると判断する。すなわち、この範囲内には識別可能な個別の移動物体、例えば歩行者3cが存在していると判断する。
In consideration of this, by extracting only pixels having a moving speed in the horizontal direction from the captured
次に、このように撮像画像3a内から検出された歩行者3cの画像上におけるアスペクト比(縦横比)に基づいて、実空間上における歩行者3cの歩幅を推定する。すなわち、図6に示すように、撮像画像3a内で検出された歩行者3cの画像上における縦の長さ(身長)HD、および横の長さ(歩幅)WDを算出し、WD/HDをアスペクト比として算出する。算出した撮像画像3a内における歩行者3cのアスペクト比は、実空間上においても同様になる。すなわち、実空間上における身長をHR、歩幅をWRとすると、次式(1)に示す関係式が成り立つ。
HD:WD = HR:WR ・・・(1)
Next, the stride of the
H D : W D = H R : W R (1)
また、一般的に、実空間上における人間の身長HRと歩幅WRには、図7に示すような線形関係があり、次式(2)に示す関係式が成り立つことが知られている。
WR(m) = a・HR(m)+b ・・・(2)
なお、変数aおよびbは、歩行者の年齢や性別などによって変化する。
したがって、式(1)および(2)より、歩行者3cの実空間上における歩幅WRは、次式(3)によって推定可能である。
WR = (−b・WD/a)/(HD−WD/a) ・・・(3)
Also, in general, the human body height H R and stride W R in the real space, there is a linear relationship as shown in FIG. 7, it is known that the relationship expressed by a following expression (2) holds .
W R (m) = a · H R (m) + b (2)
The variables a and b vary depending on the age and sex of the pedestrian.
Therefore, stride W R in the formula (1) and (2) from, the real space of the
W R = (− b · W D / a) / (H D −W D / a) (3)
例えば、実空間上における一般成人などの一般的な歩行者においては、歩行姿勢に基づいて設定された身長HRと歩幅WRとの既知の比に基づいて、式(2)において、a=1、b=−0.9とした次式(4)の関係式が成立することから、式(3)により、歩行者3cの実空間上における歩幅WRは、次式(5)によって推定可能である。
WR(m) = HR(m)−0.9(m) ・・・(4)
WR(m) = 0.9・WD/(HD−WD) ・・・(5)
For example, in a general pedestrian and general adult in the real space, based on the known ratio between the height H R and footstep W R that is set based on the walking posture, in the formula (2), a = since 1, b = -0.9 and the following equation relational expression (4) is satisfied, estimated by the formula (3), stride length W R in the real space of the pedestrian. 3c, by the following equation (5) Is possible.
W R (m) = H R (m) -0.9 (m) ··· (4)
W R (m) = 0.9 · W D / (H D -W D) ··· (5)
式(5)によって推定した歩幅を有する歩行者3cと、自車両との実空間上における位置関係は、図8(a)に示すようになる。この場合において、実空間上における自車両と歩行者3cとの間の推定距離Lは、カメラ101の焦点距離をFとすると、図8(b)に示すように模式的に表すことができ、次式(6)によって算出することができる。
L = F・WR/WD ・・・(6)
これによって、撮像画像3a内に存在する物体の中から、道路脇から自車両前方を横切る方向に移動してくる歩行者3cの歩幅を推定し、推定した歩幅に基づいて、歩行者3cと自車両との間の推定距離を算出することができる。
The positional relationship in real space between the
L = F · W R / W D (6)
As a result, the stride of the
図9は、第1の実施の形態における画像処理装置100の処理を示すフローチャートである。図9に示す処理は、車両のイグニションスイッチがオンされて、画像処理装置100の電源がオンされると制御装置103によって実行される。ステップS10において、カメラ101で撮像された自車両前方の画像3aを画像メモリ102から取り込む。その後、ステップS20へ進み、上述したように、画像3aに対してエッジ抽出処理を行って、撮像画像3a内に存在する物体の輪郭を抽出したエッジ画像を生成する。そして、各画素における画素カウンタのカウント値に基づいて画像速度を算出する。
FIG. 9 is a flowchart illustrating processing of the
その後、ステップS30へ進み、撮像画像3a内において画像中央に向かう横方向の移動速度を持つ画素のみを抽出して、撮像画像3a内に存在する歩行者3cを検出して、ステップS40へ進む。ステップS40では、撮像画像3a内で検出した歩行者3cのアスペクト比を算出して、ステップS50へ進み、算出したアスペクト比に基づいて、上述した式(5)により歩行者3cの実空間上における歩幅WRを推定する。その後、ステップS60へ進む。
Thereafter, the process proceeds to step S30, where only the pixels having a lateral movement speed toward the center of the image are extracted in the captured
ステップS60では、撮像画像3a上における歩行者の歩幅、実空間上における歩行者の歩幅W R 、およびカメラ101の焦点距離Fに基づいて、上述した式(6)により自車両と歩行者3cとの間の推定距離Lを算出する。その後、ステップS70へ進み、自車両のイグニションスイッチがオフされたか否かを判断し、オフされないと判断した場合には、ステップS10へ戻って処理を繰り返す。これに対して、自車両のイグニションスイッチがオフされたと判断した場合には、処理を終了する。
In step S60, the pedestrian stride on the captured
以上説明した第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)撮像画像3a上における歩行者のアスペクト比を算出し、算出したアスペクト比、および一般的な歩行者の身長と歩幅との関係に基づいて、実空間上における歩行者の歩幅W R を推定することとした。これによって、一般的な歩行者は身長と歩幅が線形関係になることを加味して、精度高く歩行者の歩幅W R を推定することができる。
(2)推定した実空間上における歩行者の歩幅W R 、撮像画像3a上における歩行者の歩幅W D 、およびカメラ101の焦点距離Fに基づいて、自車両と歩行者との間の推定距離Lを算出することとした。これによって、歩行者までの距離を計測するための特別な計測機器を用いずに、用意に自車両と歩行者との間の距離Lを推定することができる。
(3)撮像画像3a内において画像中央に向かう横方向の移動速度を持つ画素で構成される移動物体を撮像画像3a内に存在する歩行者3cとして検出するようにした。これによって、一般的に、自車両が直進しているときは静止物体などの背景は画像中央から画像外側に向かう速度成分を有するのに対して、自車両に道路脇から接近してくる歩行者は、画像外側から画像中央に向かう速度成分を有することを加味して、正確に道路脇から自車両前方を横切る方向に移動してくる歩行者のみを検出することができる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) to calculate the aspect ratio of the pedestrian in the captured
(2) estimated pedestrian stride W R in the real space, footstep W D of the pedestrian in the captured image 3a, and on the basis of the focal length F of the
(3) A moving object composed of pixels having a moving speed in the horizontal direction toward the center of the image in the captured
―第2の実施の形態―
第2の実施の形態では、高齢者は第1の実施の形態で上述した一般成人などの一般的な歩行者とはアスペクト比が異なることを考慮して、画像内で検出した歩行者の歩幅を推定し、自車両から歩行者までの推定距離を算出する。なお、図1〜図5の各図については、第1の実施の形態と同様のため、説明を省略する。
-Second embodiment-
In the second embodiment, taking into account that an elderly person has an aspect ratio different from that of a general pedestrian such as the general adult described in the first embodiment, the stride of the pedestrian detected in the image. And the estimated distance from the vehicle to the pedestrian is calculated. 1 to 5 are the same as those in the first embodiment, and the description thereof is omitted.
図10(a)に示すように、高齢者10aは、一般成人10bよりも相対的な歩幅WD2が小さいことが一般的である。よって、高齢者10aのアスペクト比、すなわちWD2/HD2は一般成人10bよりも小さくなる。このため、制御装置103は、撮像画像3a内から検出された道路脇から自車両前方を横切る方向に移動してくる歩行者のアスペクト比が、あらかじめ設定した所定値以下である場合には、当該歩行者は高齢者であると判定する。
As shown in FIG. 10 (a), elderly 10a, it generally adult relative stride W D2 than 10b is small in general. Therefore, the aspect ratio of the elderly 10a, that is, W D2 / H D2 is smaller than that of the
また、上述したように高齢者10aのアスペクト比は一般成人10bとは異なることから、図10(b)に示すように、高齢者10aの実空間上における身長HR2と歩幅WR2との関係は、一般成人10bにおける身長HRと歩幅WRとの線形関係10dとは異なる線形関係10cとなる。したがって、撮像画像3a内で検出された歩行者が高齢者である場合には、第1の実施の形態における式(5)とは異なる関係式、すなわち次式(7)によって実空間上における歩行者の歩幅を推定する必要がある。
WR(m) = a´・HR(m)+b´ ・・・(7)
The aspect ratio of the elderly 10a as described above from different than the
W R (m) = a ′ · H R (m) + b ′ (7)
例えば、実空間上における高齢者10aの身長HR2と歩幅WR2においては、式(7)において、a´=1/2、b´=−0.5とした次式(8)の関係式が成立することが知られていることから、第1の実施の形態における式(3)より、高齢者10aの実空間上における歩幅WR2は、次式(9)によって推定可能である。
WR2(m) = HR2(m)/2−0.5(m) ・・・(8)
WR2(m) = WD2/(HD2−2・WD2) ・・・(9)
For example, in the height H R2 and stride W R2 elderly 10a in the real space, in equation (7), a'= 1/ 2, b'= -0.5 and the following relational expression (8) since There are known to be established, the equation (3) in the first embodiment, footstep W R2 in the real space of the elderly 10a can be estimated by the following equation (9).
W R2 (m) = H R2 (m) /2-0.5 (m) (8)
W R2 (m) = W D2 / (H D2 −2 · W D2 ) (9)
したがって、実空間上における自車両と高齢者10aとの間の推定距離Lは、式(9)で算出した高齢者10aの歩幅WR2に基づいて、第1の実施の形態における式(6)より、次式(10)によって算出することができる。
L = F・WR2/WD2 ・・・(10)
これによって、撮像画像3a内から検出された道路脇から自車両前方を横切る方向に移動してくる歩行者が高齢者である場合でも、歩幅を推定して高齢者10aと自車両との間の推定距離を算出することができる。
Thus, the estimated distance L between the host vehicle and the elderly 10a in the real space, based on the stride W R2 elderly 10a calculated by the equation (9), wherein in the first embodiment (6) Therefore, it is computable by following Formula (10).
L = F · W R2 / W D2 (10)
Thereby, even when the pedestrian moving in the direction crossing the front of the host vehicle from the side of the road detected from the captured
図11は、第2の実施の形態における画像処理装置100の処理を示すフローチャートである。図11に示す処理は、車両のイグニションスイッチがオンされて、画像処理装置100の電源がオンされると制御装置103によって実行される。なお、第1の実施の形態における図9と共通する処理については同じステップ番号を付与し、相違点を中心に説明する。
FIG. 11 is a flowchart illustrating processing of the
ステップS41において、算出した歩行者のアスペクト比があらかじめ設定した所定値以下であるか否かを判定する。アスペクト比が所定値より大きいと判断した場合には、ステップS42へ進む。ステップS42では、検出された歩行者は一般成人であると判断して、ステップS51へ進み、一般成人用の歩幅推定式、すなわち第1の実施の形態で上述した式(5)によって、歩行者の歩幅WRを推定する。その後、ステップS60へ進む。 In step S41, it is determined whether or not the calculated pedestrian aspect ratio is equal to or less than a predetermined value set in advance. If it is determined that the aspect ratio is greater than the predetermined value, the process proceeds to step S42. In step S42, it is determined that the detected pedestrian is a general adult, and the process proceeds to step S51, where the pedestrian is calculated according to the general adult stride estimation formula, that is, the formula (5) described above in the first embodiment. estimating a stride W R. Thereafter, the process proceeds to step S60.
これに対して、アスペクト比が所定値以下である判断した場合には、ステップS43へ進む。ステップS43では、検出された歩行者は高齢者であると判断して、ステップS52へ進み、高齢者用の歩幅推定式、すなわち式(9)によって、歩行者の歩幅WR2を推定する。その後、ステップS60へ進む。 On the other hand, if it is determined that the aspect ratio is equal to or less than the predetermined value, the process proceeds to step S43. In step S43, it is determined that the detected pedestrian is an elderly person, the process proceeds to step S52, and the pedestrian's stride WR2 is estimated by a step estimation formula for elderly persons, that is, equation (9). Thereafter, the process proceeds to step S60.
以上説明した第2の実施の形態によれば、第1の実施の形態における作用効果に加えて以下のような効果を得ることができる。
(1)撮像画像内で検出された歩行者が一般成人であるか高齢者であるかを判定して、判定結果に基づいて歩幅の推定方法を変化させるようにした。これによって、高齢者は、一般成人よりも歩幅が小さいという、一般成人との歩行姿勢の違いを加味して、より精度高く歩幅を推定することができる。
(2)撮像画像内で検出された歩行者のアスペクト比が、あらかじめ設定した所定値以下である場合には、当該歩行者は高齢者であると判定するようにした。これによって、高齢者と一般成人との歩行姿勢の違いを考慮して、歩行者が一般成人であるか高齢者であるかを的確に判定することができる。
According to the second embodiment described above, the following effects can be obtained in addition to the functions and effects of the first embodiment.
(1) It is determined whether the pedestrian detected in the captured image is a general adult or an elderly person, and the step length estimation method is changed based on the determination result. Thus, an elderly person can estimate the stride with higher accuracy in consideration of the difference in walking posture from the general adult that the stride is smaller than that of the general adult.
(2) When the aspect ratio of the pedestrian detected in the captured image is equal to or less than a predetermined value set in advance, the pedestrian is determined to be an elderly person. Accordingly, it is possible to accurately determine whether the pedestrian is a general adult or an elderly person in consideration of the difference in walking posture between the elderly and the general adult.
―変形例―
なお、上述した実施の形態における画像処理装置は、以下のように変形することもできる。
(1)上述した第1、および第2の実施の形態では、本発明による画像処理装置100を車両に搭載する例について説明したが、これに限定されず、その他の移動体に搭載してもよい。
-Modification-
Note that the image processing apparatus according to the above-described embodiment can be modified as follows.
(1) In the above-described first and second embodiments, the example in which the
(2)上述した第1、および第2の実施の形態では、撮像画像に対してエッジ抽出処理を行ってエッジ画像を得た後、エッジが存在する画素の画素カウンタを更新していき、当該画素カウンタのカウント値に基づいて画像上の各画素におけるエッジの速度成分を算出する例について説明した。しかし、これに限定されず、例えば一般的な手法である勾配法やブロックマッチングを用いてオプティカルフローを算出してもよい。 (2) In the first and second embodiments described above, after performing edge extraction processing on a captured image to obtain an edge image, the pixel counter of the pixel in which the edge exists is updated, The example in which the velocity component of the edge in each pixel on the image is calculated based on the count value of the pixel counter has been described. However, the present invention is not limited to this, and the optical flow may be calculated using, for example, a general method such as a gradient method or block matching.
(3)上述した第1、および第2の実施の形態では、歩行者のアスペクト比、および身長と歩幅の線形関係に基づいて歩行者の歩幅を推定した。そして、推定した歩幅に基づいて自車両と歩行者との間の推定距離を算出する例について説明した。しかし、これに限定されず、歩行者のアスペクト比、および身長と歩幅の線形関係に基づいて歩行者の身長を推定し、推定した身長に基づいて自車両と歩行者との間の推定距離を算出してもよい。 (3) In the first and second embodiments described above, the pedestrian's stride is estimated based on the aspect ratio of the pedestrian and the linear relationship between the height and the stride. And the example which calculates the estimated distance between the own vehicle and a pedestrian based on the estimated stride was demonstrated. However, the present invention is not limited to this, and the pedestrian's height is estimated based on the pedestrian's aspect ratio and the linear relationship between the height and the stride, and the estimated distance between the vehicle and the pedestrian is calculated based on the estimated height. It may be calculated.
(4)上述した第2の実施の形態では、撮像画像内で検出された歩行者を、アスペクト比に基づいて一般成人、および高齢者のいずれかであると判定して、一般成人、および高齢者用のそれぞれに対応した歩幅推定用計算式を適用して歩幅を推定するようにした。しかしこれに限定されず、歩行者の種類として、アスペクト比の違いにより判定可能なその他の歩行者の種類、例えば子供や男性女性などを区別し、それぞれの種類に応じた歩幅推定用計算式を適用して歩幅を推定するようにしてもよい。 (4) In the second embodiment described above, the pedestrian detected in the captured image is determined to be either a general adult or an elderly person based on the aspect ratio, and the general adult and the elderly The stride length is estimated by applying a formula for estimating the stride length corresponding to each person. However, the present invention is not limited to this, and as a type of pedestrian, other types of pedestrians that can be determined based on differences in aspect ratio, such as children and men and women, are distinguished, and a calculation formula for stride estimation corresponding to each type is provided. You may make it estimate a stride by applying.
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。 Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.
特許請求の範囲の構成要素と実施の形態との対応関係について説明する。カメラ101は撮像手段に、制御装置103は速度情報算出手段、歩行者検出手段、算出手段、歩幅推定手段、距離推定手段、および歩行者判定手段に相当する。なお、この対応は一例であり、実施の形態の構成によって対応関係は異なるものである。
The correspondence between the constituent elements of the claims and the embodiment will be described. The
100 画像処理装置
101 カメラ
102 画像メモリ
103 制御装置
104 カウンタメモリ
DESCRIPTION OF
Claims (3)
前記撮像手段で撮像した画像を画像処理して、画像上の各画素から検出されたエッジの横方向の移動速度、および移動方向を画像速度として算出する画像速度算出手段と、
前記画像速度算出手段で算出した前記画像速度に基づいて、自車両の推定進行経路に側方から接近してくる歩行者を検出する歩行者検出手段と、
前記歩行者検出手段で検出した歩行者の画像内における身長と歩幅を算出する算出手段と、
前記算出手段で算出した歩行者の画像内における身長と歩幅との比、および人間の歩行姿勢に基づいてあらかじめ設定された所定の身長と歩幅との比に基づいて、実空間上における歩行者の歩幅を推定する歩幅推定手段と、
前記歩幅推定手段で推定した実空間上における歩行者の歩幅に基づいて、自車両から歩行者までの距離を推定する距離推定手段とを備えることを特徴とする画像処理装置。 Imaging means for capturing an image in front of the host vehicle;
Image speed calculation means for performing image processing on an image captured by the imaging means , and calculating a lateral movement speed of an edge detected from each pixel on the image, and a movement direction as an image speed ;
Pedestrian detection means for detecting a pedestrian approaching from the side of the estimated traveling path of the host vehicle based on the image speed calculated by the image speed calculation means;
Calculating means for calculating the height and stride in the image of the pedestrian detected by the pedestrian detecting means;
Based on the ratio between the height and the stride in the image of the pedestrian calculated by the calculating means, and the ratio between the predetermined height and the stride that is preset based on the human walking posture, the pedestrian in the real space Stride estimation means for estimating stride,
An image processing apparatus comprising: a distance estimating unit that estimates a distance from the host vehicle to a pedestrian based on a pedestrian's stride in real space estimated by the stride estimating unit.
前記歩行者検出手段で検出した歩行者の種類を、前記算出手段で算出した歩行者の画像内における身長と歩幅との比に基づいて判定する歩行者判定手段をさらに備え、
前記歩幅推定手段は、前記歩行者判定手段で判定した歩行者の種類に応じた推定方法で歩行者の歩幅を推定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
Pedestrian determination means for determining the type of pedestrian detected by the pedestrian detection means based on the ratio of the height and the stride in the image of the pedestrian calculated by the calculation means,
The image processing apparatus according to claim 1, wherein the stride estimation means estimates a stride of a pedestrian by an estimation method according to a pedestrian type determined by the pedestrian determination means.
算出した前記画像速度に基づいて、自車両の推定進行経路に側方から接近してくる歩行者を検出し、
検出した歩行者の画像内における身長と歩幅を算出し、
算出した歩行者の画像内における身長と歩幅との比、および人間の歩行姿勢に基づいてあらかじめ設定された所定の身長と歩幅との比に基づいて、実空間上における歩行者の歩幅を推定し、
推定した実空間上における歩行者の歩幅に基づいて、自車両から歩行者までの距離を推定することを特徴とする画像処理方法。 Image processing is performed on the image in front of the host vehicle captured by the imaging unit, and the lateral movement speed of the edge detected from each pixel on the image and the movement direction are calculated as the image speed ,
Based on the calculated image speed , detect a pedestrian approaching from the side of the estimated traveling path of the vehicle,
Calculate the height and stride in the detected pedestrian image,
Estimate the pedestrian's stride in real space based on the ratio between the height and the stride in the calculated pedestrian image and the ratio between the predetermined stature and the stride set in advance based on the human walking posture. ,
An image processing method characterized by estimating a distance from a host vehicle to a pedestrian based on a pedestrian's stride in an estimated real space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004362601A JP4062306B2 (en) | 2004-12-15 | 2004-12-15 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004362601A JP4062306B2 (en) | 2004-12-15 | 2004-12-15 | Image processing apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006172063A JP2006172063A (en) | 2006-06-29 |
JP4062306B2 true JP4062306B2 (en) | 2008-03-19 |
Family
ID=36672759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004362601A Expired - Fee Related JP4062306B2 (en) | 2004-12-15 | 2004-12-15 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4062306B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102640182A (en) * | 2009-11-25 | 2012-08-15 | 本田技研工业株式会社 | Target-object distance measuring device and vehicle mounted with the device |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008197720A (en) * | 2007-02-08 | 2008-08-28 | Mitsubishi Electric Corp | Pedestrian warning device |
CN101470806B (en) * | 2007-12-27 | 2012-06-27 | 东软集团股份有限公司 | Vehicle lamp detection method and apparatus, interested region splitting method and apparatus |
JP7101080B2 (en) * | 2018-08-13 | 2022-07-14 | セコム株式会社 | Image processing equipment |
JP2022032103A (en) * | 2020-08-11 | 2022-02-25 | トヨタ自動車株式会社 | Walking estimation system, walking estimation method, and program |
-
2004
- 2004-12-15 JP JP2004362601A patent/JP4062306B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102640182A (en) * | 2009-11-25 | 2012-08-15 | 本田技研工业株式会社 | Target-object distance measuring device and vehicle mounted with the device |
CN102640182B (en) * | 2009-11-25 | 2014-10-15 | 本田技研工业株式会社 | Target-object distance measuring device and vehicle mounted with the device |
Also Published As
Publication number | Publication date |
---|---|
JP2006172063A (en) | 2006-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9836657B2 (en) | System and method for periodic lane marker identification and tracking | |
JP4811201B2 (en) | Runway boundary line detection apparatus and runway boundary line detection method | |
JP2006268097A (en) | On-vehicle object detecting device, and object detecting method | |
US7512494B2 (en) | Vehicle mounted image processor and method of use | |
JP5075672B2 (en) | Object detection apparatus and method | |
JPH11213137A (en) | Image processor | |
JP6138861B2 (en) | Distance calculation device | |
WO2008020598A1 (en) | Subject number detecting device and subject number detecting method | |
US20140002658A1 (en) | Overtaking vehicle warning system and overtaking vehicle warning method | |
US20090052742A1 (en) | Image processing apparatus and method thereof | |
JP3729025B2 (en) | Pedestrian detection device | |
JP2007249257A (en) | Apparatus and method for detecting movable element | |
JP5107154B2 (en) | Motion estimation device | |
JPH09218937A (en) | Compartment line detector | |
JP2009012521A (en) | Traveling support system and traveling support method for vehicle | |
JP4062306B2 (en) | Image processing apparatus and method | |
JP4321410B2 (en) | Object detection apparatus and method | |
JP5464073B2 (en) | Outside environment recognition device, outside environment recognition method | |
US9030560B2 (en) | Apparatus for monitoring surroundings of a vehicle | |
JP5903901B2 (en) | Vehicle position calculation device | |
JP4692081B2 (en) | On-vehicle object detection device and object detection method | |
JP2006010652A (en) | Object-detecting device | |
CN112513573B (en) | Stereo camera device | |
JP4096932B2 (en) | Vehicle collision time estimation apparatus and vehicle collision time estimation method | |
JP2015215235A (en) | Object detection device and object detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070724 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071217 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110111 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |