JP2001351193A - Device for detecting passenger - Google Patents

Device for detecting passenger

Info

Publication number
JP2001351193A
JP2001351193A JP2000173005A JP2000173005A JP2001351193A JP 2001351193 A JP2001351193 A JP 2001351193A JP 2000173005 A JP2000173005 A JP 2000173005A JP 2000173005 A JP2000173005 A JP 2000173005A JP 2001351193 A JP2001351193 A JP 2001351193A
Authority
JP
Japan
Prior art keywords
pedestrian
area
vertical
image
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000173005A
Other languages
Japanese (ja)
Other versions
JP3729025B2 (en
Inventor
Kazumi Fujimoto
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2000173005A priority Critical patent/JP3729025B2/en
Publication of JP2001351193A publication Critical patent/JP2001351193A/en
Application granted granted Critical
Publication of JP3729025B2 publication Critical patent/JP3729025B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a passenger detecting device capable of precisely detecting any passenger. SOLUTION: A distance to an object is detected as two-dimensional distance information, and multiple feature values for detecting any passenger are calculated from the distance information, and each feature value is weighted as preliminarily decided, and whether or not the object is any passenger is determined, based on each weighted feature value. For example, the object width and vertical dispersion of an object area are used for the feature values. The feature values of the shape of the passenger are calculated, and each feature value is preliminarily weighted by experiment so that whether or not the object is nay passenger can be discriminated. Thus, it is possible to discriminate the candidate of any passenger from the other objects, and to precisely detect the passenger.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理技術を用
いて歩行者を検知する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for detecting a pedestrian using an image processing technique.

【0002】[0002]

【従来の技術】従来の歩行者検出装置としては、例えば
特開平7−200986号公報に記載されたものがあ
る。この従来例においては、カメラで撮影された最新の
フレームと以前に撮影されたフレームとのフレーム間差
分を求めることによって撮像エリア内に移動物体を検出
し、この移動物体が横方向に移動する場合に歩行者と判
定するものである。
2. Description of the Related Art As a conventional pedestrian detection device, there is one described in, for example, Japanese Patent Application Laid-Open No. 7-200986. In this conventional example, when a moving object is detected in an imaging area by calculating an inter-frame difference between a latest frame photographed by a camera and a previously photographed frame, and the moving object moves in a lateral direction. Is determined to be a pedestrian.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記のごとき
歩行者検出装置では、フレーム間差分によって検出され
た物体が必ず歩行者であるとは限らないので、歩行者以
外の物体が含まれる可能性が大きいという問題があっ
た。また、移動する車両から撮影すると、静止物体であ
ってもフレーム間では画像上の物体位置は横に移動する
ので、路上の静止物体を移動物体と誤判断するおそれが
ある、という問題があった。
However, in the above-described pedestrian detection device, the object detected by the inter-frame difference is not always a pedestrian, so that an object other than a pedestrian may be included. There was a problem that was large. Further, when photographing from a moving vehicle, even if the object is a stationary object, the object position on the image moves horizontally between frames, and there is a problem that a stationary object on the road may be erroneously determined as a moving object. .

【0004】本発明は上記のごとき従来技術の問題を解
決するためになされたものであり、精度の良い歩行者検
知を行うことのできる歩行者検知装置を提供することを
目的とする。
[0004] The present invention has been made to solve the problems of the prior art as described above, and has as its object to provide a pedestrian detection device capable of performing accurate pedestrian detection.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
め本発明においては、特許請求の範囲に記載するように
構成している。すなわち、請求項1に記載の発明におい
ては、物体までの距離を2次元の距離情報として検出
し、その距離情報から歩行者検出用の複数の特徴量を演
算し、前記の各特徴量に予め定めた重み付けを行い、重
み付けを行った各特徴量に基づいて歩行者か否かを判断
するように構成している。
In order to achieve the above object, the present invention is structured as described in the appended claims. That is, according to the first aspect of the present invention, a distance to an object is detected as two-dimensional distance information, a plurality of feature amounts for pedestrian detection are calculated from the distance information, and each of the feature amounts is determined in advance. A predetermined weighting is performed, and it is configured to determine whether or not a pedestrian is based on each weighted feature amount.

【0006】また、請求項2に記載の発明においては、
特徴量として、少なくとも物体領域の物体幅と縦分散を
演算するものである。なお、縦分散とは距離情報に対応
する各点における高さデータの分散を意味する。また、
請求項3においては、特徴量として、少なくとも物体領
域の物体幅と縦分散と縦重心を演算するものである。な
お、縦重心とは距離情報に対応する各点における高さデ
ータの重心を意味する。また、請求項4においては、一
応歩行者と判断された物体(歩行者候補)の2次元距離
画像上の領域および画像上で当該領域よりも高い位置の
領域について、輝度情報の垂直方向の積算ヒストグラム
を算出し、垂直方向の積算値の分布に基づいて歩行者か
否かを再度判断するものである。また、請求項5に記載
の発明は、本発明の具体的な構成の一例を示したもので
あり、特徴量の演算以降の処理は請求項2乃至請求項4
の何れかと同様である。
Further, in the invention according to claim 2,
At least the object width and the vertical variance of the object region are calculated as the feature amounts. Note that the vertical distribution means the distribution of height data at each point corresponding to the distance information. Also,
According to a third aspect of the present invention, at least an object width, a vertical variance, and a vertical center of gravity of the object area are calculated as the feature amounts. Note that the vertical center of gravity means the center of gravity of height data at each point corresponding to the distance information. According to a fourth aspect of the present invention, the luminance information of the object (pedestrian candidate), which is temporarily determined to be a pedestrian, on the two-dimensional range image and on the image at a position higher than the region is vertically integrated. The histogram is calculated, and it is determined again whether or not the person is a pedestrian based on the distribution of the integrated value in the vertical direction. Also, the invention described in claim 5 shows an example of a specific configuration of the present invention, and the processing subsequent to the calculation of the characteristic amount is described in claims 2 to 4.
Is the same as any one of the above.

【0007】[0007]

【発明の効果】請求項1においては、歩行者の形状の特
徴量を求め、各特徴量に予め実験により歩行者か否かの
判別用の重み付けを行うことにより、歩行者候補と他の
物体との区別が可能となるので、精度の良い歩行者検知
を行うことができる、という効果が得られる。
According to the first aspect of the present invention, the pedestrian candidate and other objects are obtained by determining the characteristic amount of the shape of the pedestrian and weighting each characteristic amount in advance by an experiment to determine whether the object is a pedestrian. This makes it possible to perform accurate pedestrian detection.

【0008】また、請求項2においては、特徴量とし
て、物体幅と縦分散を用い、それに予め実験で求めた歩
行者か否かの判別用の重み付けを行うことにより、歩行
者候補と他の物体とのより正確な区別が可能になる。
According to a second aspect of the present invention, the object width and the vertical variance are used as the feature amounts, and weighting for discriminating whether or not the pedestrian is a pedestrian determined in advance by an experiment is performed. A more accurate distinction from an object becomes possible.

【0009】また、請求項3においては、特徴量とし
て、物体幅と縦分散と縦重心とを用いたことにより、歩
行者の横への移動により特徴量が大きく変動しても、特
徴量に縦重心を加えることによって精度良く歩行者の検
出が可能となる。
According to the third aspect of the present invention, since the object width, the vertical variance, and the vertical center of gravity are used as the characteristic amounts, even if the characteristic amounts greatly change due to the lateral movement of the pedestrian, the characteristic amounts are not changed. By adding the vertical center of gravity, pedestrians can be accurately detected.

【0010】また、請求項4においては、一応歩行者と
して検出された歩行者候補の領域について、検出された
領域を画像上端に拡張し、その領域内で輝度値の積算ヒ
ストグラムを求め、垂直方向の積算値の分布に基づいて
歩行者か否かを再度判断する。例えばヒストグラムの形
状特徴を示す統計量である尖度を計算することにより、
路上の静止物である電柱と歩行者を判別することが可能
になり、さらに正確な歩行者検知が可能となる。
According to a fourth aspect of the present invention, for a pedestrian candidate area temporarily detected as a pedestrian, the detected area is extended to the upper end of the image, and an integrated histogram of luminance values is obtained in the area. Is determined again based on the distribution of the integrated value of. For example, by calculating a kurtosis which is a statistic indicating a shape characteristic of a histogram,
This makes it possible to distinguish between a telephone pole, which is a stationary object on the road, and a pedestrian, thereby enabling more accurate pedestrian detection.

【0011】また、請求項5においては、2台のカメラ
から撮影された画像から計算した視差とカメラとの位置
関係から、自車両と物体の実空間上での3次元的な位置
関係が把握できるため、カメラ位置が移動していても静
止物体と移動物体との区別が可能となる。さらに、ステ
レオ画像処理により実空間上の位置データが算出できる
ため、カメラと物体までの距離に影響を受けにくい特徴
量の計算が可能になる、等の効果が得られる。
According to a fifth aspect of the present invention, a three-dimensional positional relationship between the own vehicle and the object in real space is grasped from a positional relationship between the parallax calculated from images captured by the two cameras and the cameras. Therefore, it is possible to distinguish between a stationary object and a moving object even when the camera position is moving. Further, since position data in the real space can be calculated by stereo image processing, it is possible to calculate a feature amount that is hardly affected by the distance between the camera and the object.

【0012】[0012]

【発明の実施の形態】図1は本発明の実施形態の構成を
示すブロック図である。図1において、1および2は電
子式のカメラであり、自車両の前部に前方を向いて設置
されており、両カメラの光軸は相互に平行で、かつ撮像
面の水平軸が同じライン上に揃うように設置されてい
る。なお、車両の後部に後方を向けて設置し、車両後方
の物体を検出するように構成することもできる。また、
1個のカメラに2つのレンズを有するステレオカメラを
用いても同様である。3、4はそれぞれカメラ1、2か
ら入力した画像信号を記憶するメモリである。5は演算
部であり、例えばCPU、RAM、ROM等からなるマ
イクロコンピュータで構成される。6は自車両前方に存
在する検出対象物であり、図1では車両を示している
が、本発明では主に歩行者を検出する。
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention. In FIG. 1, reference numerals 1 and 2 denote electronic cameras, which are installed at the front of the host vehicle so as to face forward. The optical axes of both cameras are parallel to each other, and the horizontal axes of the imaging surfaces are the same. It is installed so as to be aligned with the top. In addition, it is also possible to arrange so as to face the rear part of the vehicle so as to detect an object behind the vehicle. Also,
The same applies to the case where a stereo camera having two lenses for one camera is used. Reference numerals 3 and 4 denote memories for storing image signals input from the cameras 1 and 2, respectively. Reference numeral 5 denotes an arithmetic unit, which is configured by a microcomputer including, for example, a CPU, a RAM, a ROM, and the like. Reference numeral 6 denotes a detection target existing in front of the host vehicle, which is a vehicle in FIG. 1, but mainly detects a pedestrian in the present invention.

【0013】図2はステレオ画像を用いて三角測量の原
理でカメラから物体までの距離を求める原理を説明する
図である。図2において、X軸は地表面に水平、Y軸は
地表面に垂直、Z軸は左カメラの光軸(車両前方正面方
向)に一致しているものとする。また左カメラ(図1の
カメラ1に相当)と右カメラ(図1のカメラ2に相当)
の光軸は相互に平行で、かつ撮像面の水平軸が同じライ
ン上に揃うように設置している。なお、両カメラのレン
ズは図示を省略しているが、X軸から焦点距離fだけ前
方のローカル座標系を示した場所に存在する。実際の画
像はX軸の位置に結像されるが、図2では、レンズの位
置に示している。上記の構成において、空間上の点P
(x、y、z)を撮影して得た左画像において、点Pを
投影したP のXローカル座標系における座標を
(X、Y)とし、同様に右画像における点Pを
投影したときのローカル座標をP(X、Y)とす
る。このとき、2つのカメラの間隔をh、焦点距離をf
とすると点P(x、y、z)のx座標、y座標、z座標
は下記(数1)式で求めることができる。
FIG. 2 shows a triangulation source using stereo images.
Explain the principle of finding the distance from the camera to the object
FIG. In FIG. 2, the X axis is horizontal to the ground surface, and the Y axis is
Perpendicular to the ground surface, the Z axis is the optical axis of the left camera (in front of the vehicle
Direction). The left camera (Fig. 1)
Camera 1) and right camera (equivalent to camera 2 in FIG. 1)
Optical axes are parallel to each other and the horizontal axis of the imaging surface is the same.
It is installed so that it is aligned on the screen. In addition, the lens of both cameras
Is not shown in the figure, but is a focal length f before the X axis.
Exists at the location indicated by the local coordinate system. Actual picture
The image is formed at the position of the X axis, but in FIG.
Shown in the table. In the above configuration, the point P on the space
In the left image obtained by shooting (x, y, z), the point P
Projected P LXLYLCoordinates in the local coordinate system
PL(XL, YL), And similarly, the point P in the right image is
The local coordinate at the time of projection is PR(XR, YR)
You. At this time, the distance between the two cameras is h, and the focal length is f
X, y, z coordinates of point P (x, y, z)
Can be obtained by the following equation (Equation 1).

【0014】 x=(x・h)/(x−x) y=(y・h)/(x−x)=(y・h)/(x−x) …(数1) z=(f・h)/(x−x) これらの式から空間中の点を、左右画像に投影したとき
の点を求めること、言い換えれば左画像と右画像で対応
する点を決定することによって、画像中の各点の3次元
座標を求めることができる。特に上記の光学系では左右
のカメラをつなぐ線分が水平でX軸に平行であり、y
=yであるので、左右画像の存在する水平線上の画素
間の対応関係を決定すればよい。すなわち、2つの画像
間のマッチング位置x、x(左画像と同じ画像が存
在する右画像の位置)を求め、それによって視差(x
−x)を求めれば、(数1)式のzによってカメラか
ら物体までの距離を計測することができる。
[0014] x = (x L · h) / (x L -x R) y = (y L · h) / (x L -x R) = (y R · h) / (x L -x R) ... (Equation 1) z = (f · h) / (x L −x R ) Obtaining a point when a point in the space is projected on the left and right images from these equations, in other words, using the left image and the right image By determining the corresponding points, the three-dimensional coordinates of each point in the image can be determined. In particular, in the above optical system, the line connecting the left and right cameras is horizontal and parallel to the X axis, and y L
= Because it is y R, it may be determined corresponding relationship between the horizontal line pixels present in the left and right images. That is, the matching positions x L and x R (the positions of the right image where the same image as the left image exists) between the two images are obtained, and thereby the parallax (x L
By obtaining the -x R), it is possible to measure the distance from the camera to the object by z in equation (1) below.

【0015】図3は入力した左右画像のうち何れか一方
(例えば左画像)の画像を小領域に分割し、領域内に存
在する特徴的なエッジを利用して2つの画像間でのマッ
チング位置を求めた結果を示す図である。図3(A)は
左画像を複数の小領域に分割した状態を示す図であり、
道路前方に先行車が存在する画像を例示している。図3
(B)は右画像を示す図であり、左画像のある領域と一
致する部分(マッチング)を求め、両者の視差を求める
状態を示している。図3(C)は視差の値が同じ領域の
かたまりを抜き出した図である。
FIG. 3 shows an image obtained by dividing one of the input left and right images (for example, the left image) into small regions, and using the characteristic edge existing in the region to determine the matching position between the two images. It is a figure showing the result of having calculated. FIG. 3A is a diagram showing a state in which the left image is divided into a plurality of small areas.
The example in which the preceding vehicle exists in front of the road is illustrated. FIG.
(B) is a diagram showing the right image, showing a state in which a part (matching) that matches a certain area in the left image is obtained, and the parallax between the two is obtained. FIG. 3C is a diagram in which a block of an area having the same parallax value is extracted.

【0016】図3に示すように、各領域毎に視差(x
−x)を求めれば、前記(数1)式によりその領域内
に撮像されている物体までの距離を求めることができ
る。この図3のように各領域毎にその内部の物体の距離
を求めた画像を“距離画像”と呼ぶ。本実施例では上記
の距離画像が2次元の距離情報となる。なお、上記2つ
のカメラで撮像した画像は、それぞれ各画素毎に輝度に
対応した画像であり、これを“輝度画像”と呼ぶ。上記
距離画像において、各領域毎に求められる距離は領域内
の物体の特徴的なエッジまでの距離であるため、隣接す
る領域で同じような距離がある場合には同一物体である
と判断できる。例えば、図3(C)で四角な枠で領域が
示されている部分が視差の値が同じ個所であり、この部
分が先行車に相当する。
As shown in FIG. 3, the parallax (x L
-X R ), the distance to the object imaged in the area can be determined by the above (Equation 1). An image in which the distance of an object inside each region is obtained as shown in FIG. 3 is called a “distance image”. In the present embodiment, the above distance image is two-dimensional distance information. The images captured by the two cameras are images corresponding to the luminance of each pixel, and are called “luminance images”. In the above distance image, the distance obtained for each region is a distance to a characteristic edge of an object in the region. Therefore, if there is a similar distance in an adjacent region, it can be determined that the two objects are the same object. For example, a portion in which a region is indicated by a rectangular frame in FIG. 3C is a portion where the value of parallax is the same, and this portion corresponds to a preceding vehicle.

【0017】図2に示したように2つのカメラを光軸が
平行になるように設置した場合には、図3に示したよう
に画像のマッチング位置は同一線上にのる。このことか
ら、左画像に一致する右画像の対象領域の探索は、同一
線上において視差方向に1画素ずつずらしながら左右の
領域間で下記(数2)式に示すような一致度H(差分
値)を求めることによって行うことができる。 H=Σi|Li−Ri| …(数2) なお、一致度Hは差分値で表しているので、この値が小
さいほど両者が一致していることになる。
When two cameras are installed so that the optical axes are parallel as shown in FIG. 2, the matching positions of the images are on the same line as shown in FIG. From this, the search for the target region of the right image that matches the left image is performed by shifting the left and right regions on the same line by one pixel in the parallax direction, using the matching degree H (difference value ) Can be performed. H = Σi | Li−Ri | (Equation 2) Since the degree of coincidence H is represented by a difference value, the smaller the value, the more the two coincide.

【0018】上記(数2)式において、LとRはそれぞ
れ左画像と右画像の輝度であり、一つの領域(ウィンド
ウ)内に含まれる画素のうち、左画像と右画像とで対応
する位置の画素毎に両者の差の絶対値|Li−Ri|を
求め、その総和をHとする。このHの値は左画像と右画
像とで対応する位置の画素の輝度が近い値であるほど小
さな値になる。上記のように求めた距離画像から隣接領
域で同じような距離があるものをひとかたまりとして物
体領域を検出する。また、2次元のスキャニングレーザ
レーダ(レーザレンジファインダ)を用いても、前方の
物体までの距離情報を示す距離画像を作成できる。
In the above equation (2), L and R are the luminances of the left image and the right image, respectively, and among the pixels included in one area (window), the positions corresponding to the left image and the right image The absolute value | Li−Ri | of the difference between the two pixels is obtained, and the sum thereof is set to H. The value of H becomes smaller as the brightness of the pixel at the corresponding position between the left image and the right image is closer. From the distance images obtained as described above, an object area is detected as a group of adjacent areas having similar distances. Also, a two-dimensional scanning laser radar (laser range finder) can be used to create a distance image indicating distance information to a forward object.

【0019】次に、検出した物体領域内の距離画像から
前記(数1)式によって実空間上のx、y、z座標を計
算し、物体の3次元的な形状を示す特徴量を計算する。
すなわち、一般的な画像における座標から特徴量を計算
すると、撮像される距離によって特徴量が大きく変動す
るため、本発明では上記のように実空間上のx、y、z
座標を計算することによって距離による特徴量変化を防
止するように構成している。
Next, the x, y, and z coordinates in the real space are calculated from the detected distance image in the object area by the above equation (Equation 1), and the feature quantity indicating the three-dimensional shape of the object is calculated. .
That is, when the feature amount is calculated from the coordinates in a general image, the feature amount greatly varies depending on the distance to be imaged. Therefore, in the present invention, x, y, z in the real space as described above
The configuration is such that calculating the coordinates prevents a change in the feature amount due to the distance.

【0020】また、歩行者を示す特徴量としては物体幅
と縦分散を取り上る。図4は物体幅と縦分散を特徴とし
た場合における処理を説明するための図であり、(A)
と(B)はt秒間隔で撮像した自車前方の画像、(C)
は物体幅と縦分散をとったグラフを示す。なお、縦分散
とは距離情報に対応する各点における高さデータの分散
を意味する。横方向に移動する歩行者の各フレームにお
ける上記2つの特徴量を算出し、Y軸に縦分散を、X軸
に物体幅をとり、図4(C)に示すようにプロットす
る。しかし、歩行者が横方向に移動する場合には、足を
開いたときには幅が広がり閉じると狭くなるので、足の
動きに応じて物体幅が変動する。そのため、図4(C)
において歩行者とその他の物体の分布を比較すると、歩
行者の物体幅の変動が大きいため、両者の分布で重なり
合う部分(図4Cで塗りつぶした部分)が存在し、2群
を完全に分離することができなくなる。そのため、下記
(数3)式に示すように、aとbを適当に定めた重み付
け合計得点Sの分布を求めると、図4(C)において破
線の上下に分けることができるので、重なり合う部分が
解消され、2群を完全に分離することができる。 S=Y−aX+b …(数3) 上記(数3)式に示した合計得点Sは、判別関数と呼ば
れる。
Further, as the characteristic amount indicating the pedestrian, the object width and the vertical dispersion are taken. FIG. 4 is a diagram for explaining processing in a case where the object width and the vertical dispersion are characterized, and FIG.
And (B) are images in front of the vehicle taken at intervals of t seconds, (C)
Shows a graph in which the object width and the vertical dispersion are taken. Note that the vertical distribution means the distribution of height data at each point corresponding to the distance information. The above two feature amounts in each frame of the pedestrian moving in the horizontal direction are calculated, and the vertical variance is plotted on the Y axis and the object width is plotted on the X axis, and plotted as shown in FIG. However, when the pedestrian moves in the lateral direction, the width increases when the foot is opened and becomes narrower when the foot is closed, so that the object width varies according to the movement of the foot. Therefore, FIG.
Comparing the distributions of pedestrians and other objects in, there is a large variation in the object width of pedestrians, so there is an overlapping part (the part filled in FIG. 4C) in both distributions, and the two groups are completely separated. Can not be done. Therefore, as shown in the following equation (3), when the distribution of the weighted total score S in which a and b are appropriately determined is obtained, the distribution can be divided into upper and lower portions of the broken line in FIG. And the two groups can be completely separated. S = Y−aX + b (Equation 3) The total score S shown in the above (Equation 3) is called a discriminant function.

【0021】上記の判別関数は、予め求められた複数の
特徴量から多変量解析の判別分析法により有意な特徴量
を選択することによって作成できる。代表的な特徴量と
しては、距離、物体幅、横重心、横分散、縦重心、縦分
散、分散比などが挙げられる。このような複数の特徴量
に重み付けを行い、下記(数4)式、(数5)式、(数
6)式のような判別関数を作成し、合計得点Sの値が0
以上であれば、一応歩行者と判断できるので、歩行者候
補とする。 S=a+a+b +b +c …(数4) S=a −1+a −1+b+b+c …(数5) S=a+a+…+a +b +b +…+b +m +m +…+m +p …(数6) 。
The above-mentioned discriminant function is obtained by calculating a plurality of
Significant features from features by multivariate discriminant analysis
Can be created by selecting. Representative features and
The distance, object width, horizontal center of gravity, horizontal dispersion, vertical center of gravity, vertical division
Dispersion and dispersion ratio. Multiple features like this
Is weighted, and the following (Equation 4), (Equation 5),
6) A discriminant function as shown in the equation is created, and the value of the total score S is 0
If it is above, it can be determined to be a pedestrian once,
Supplement. S = a1x1+ A2x2+ B1x1 2+ B2x2 2+ C (Equation 4) S = a1x1 -1+ A2x2 -1+ B1x1+ B2x2+ C (Equation 5) S = a1x1+ A2x2+ ... + aixi  + B1x1 2+ B2x2 2+ ... + bixi 2  + M1x1 n+ M2x2 n+ ... + mixi n+ P (Equation 6).

【0022】次に、合計得点Sが0以上になった歩行者
候補領域の輝度画像に着目する。合計得点Sが0以上の
物体には、歩行者以外にも電柱などの細長い物体も含ま
れる。そこで輝度画像における歩行者候補領域の上端を
画像上端まで広げ、その領域内で垂直方向の輝度値の積
算ヒストグラムを作成する。このときのヒストグラムの
形状は、図5に示すような特徴を持つ。なお、図5にお
いて(A)は自車前方の画像、(B)は電柱の分布、
(C)は歩行者の分布を示す。図5(B)に示すよう
に、電柱は横方向の特定の位置に画像上部まで、同じよ
うな輝度値が存在するため、ヒストグラム形状は横方向
の特定位置で鋭角になる。これに対して、図5(C)に
示すように、歩行者は画像上端部分まで積算すると、背
景の影響でヒストグラム形状が平坦になる。したがっ
て、歩行者を精度良く判別するために、下記(数7)式
のようなヒストグラム形状の特徴を示す統計量である尖
度kを計算する。そして尖度がしきい値以下であるとき
には歩行者であると判断する。 k=〔n(n+1)/(n−1)(n−2)(n−3)〕Σ〔(g)/s〕 −3(n−1)/(n−2)(n−3) …(数7) 上記(数7)式において、gは輝度画像の横位置iに
おける縦方向の輝度値の積算値、はヒストグラムの対
象となっている部分全体の輝度の平均値、sは標準偏差
である。上記のように一応歩行者と判断した歩行車候補
について、尖度kを計算して再度判定することにより、
より正確に歩行者を判別することができる。
Next, a pedestrian whose total score S becomes 0 or more
Focus on the luminance image of the candidate area. Total score S is 0 or more
Objects include not only pedestrians but also elongated objects such as telephone poles
It is. Therefore, the upper end of the pedestrian candidate area in the brightness image
Spread to the top of the image, and within that area the product of the vertical luminance values
Create an arithmetic histogram. At this time, the histogram
The shape has characteristics as shown in FIG. Note that FIG.
(A) is an image in front of the vehicle, (B) is a distribution of telephone poles,
(C) shows the distribution of pedestrians. As shown in FIG.
In addition, the telephone pole is the same at a specific location
Because there is such a luminance value, the histogram shape is horizontal
At a specific position. On the other hand, FIG.
As shown, when the pedestrian accumulates to the top of the image,
The histogram shape becomes flat due to the influence of the scenery. Accordingly
In order to determine pedestrians with high accuracy,
Is a statistic that indicates features of the histogram shape such as
Calculate the degree k. And when the kurtosis is below the threshold
Is determined to be a pedestrian. k = [n (n + 1) / (n-1) (n-2) (n-3)] Σ [(gig) / S]4  -3 (n-1)2/ (N−2) (n−3) (Expression 7) In the expression (Expression 7), giAt the horizontal position i of the luminance image
Integrated value of vertical luminance value ingIs the histogram pair
The average value of the brightness of the entire elephant part, s is the standard deviation
It is. Walking car candidate judged to be a pedestrian as described above
By calculating the kurtosis k and determining again,
Pedestrians can be determined more accurately.

【0023】次に、これらの原理を用いて歩行者を検出
する実施例を説明する。ここでは、図2に示したように
カメラの光軸が平行になるように設置したステレオカメ
ラを用いる。図6は実施例の処理を示すフローチャート
である。図6において、まずステップS100では、図
2のステレオ画像(右画像と左画像)を入力する。次
に、ステップS101では、ステレオ画像のどちらか一
方を同じ大きさの複数の領域(ウィンドウ)に分割す
る。この分割した領域の1つ1つに対して視差を計算し
距離を求める。視差の検出は、前記(数2)式に示した
ような画像間の差分値を一致度として計算することによ
って行う。次に、ステップS102では、マッチング処
理を行って視差を求める。ここでは、探索範囲内の全て
の一致度を求め、一致度が最小となる位置を探し、その
位置をこの領域の視差とする。ステップS103では、
このような操作を全ての領域に対して行うことで、各領
域内の物体までの距離を前記(数1)式によって算出
し、距離画像とする。次にステップS104では、上記
で求めた距離が同じ値となる連続する領域のかたまりを
見つけることにより物体領域を検出する。
Next, an embodiment for detecting a pedestrian using these principles will be described. Here, a stereo camera installed so that the optical axes of the cameras are parallel as shown in FIG. 2 is used. FIG. 6 is a flowchart showing the processing of the embodiment. 6, first, in step S100, the stereo image (right image and left image) of FIG. 2 is input. Next, in step S101, one of the stereo images is divided into a plurality of regions (windows) of the same size. The parallax is calculated for each of the divided areas to determine the distance. The detection of parallax is performed by calculating a difference value between images as shown in Expression (2) as a degree of coincidence. Next, in step S102, a parallax is obtained by performing a matching process. Here, all the coincidences in the search range are obtained, a position where the coincidence is minimum is searched, and the position is set as the parallax of this area. In step S103,
By performing such an operation on all the regions, the distance to the object in each region is calculated by the above-described (Equation 1), and is set as a distance image. Next, in step S104, an object region is detected by finding a cluster of continuous regions in which the distances obtained above have the same value.

【0024】次にステップS105では、特徴量の計算
を行う。歩行者検知で有効となる特徴量としては、下記
(数8)式、(数9)式、(数10)式に示すような縦
重心(X)、縦分散(X)、物体幅(X)の3つ
を用いる。ただし特徴量を計算する際、縦方向のデータ
は道路面からの高さになるようにデータの正規化を行
う。なお、縦重心とは距離情報に対応する各点における
高さデータの重心を意味する。
Next, in step S105, a feature amount is calculated. The feature amounts effective in the pedestrian detection include the vertical center of gravity (X 1 ), the vertical variance (X 2 ), and the object width as shown in the following Expression (8), Expression (9), and Expression (10). (X 3 ) is used. However, when calculating the feature value, the data in the vertical direction is normalized so that the height is the height from the road surface. Note that the vertical center of gravity means the center of gravity of the height data at each point corresponding to the distance information.

【0025】 X=Σij(yij−yob)/n …数8 X=(1/n)Σij〔(yij−yob)− …数9 X=x−x …数10 上記(数8)式、(数9)式、(数10)式においてy
ij、xijは距離画像(i、j)おける(数1)式か
ら計算されるx、y座標であり、yobは実空間上の路面
の高さ、は(yij−yob)の全ての値の平均値であ
る。
[0025] X 1 = Σ ij (y ij -yob) / n ... Number 8 X 2 = (1 / n ) Σ ij [(y ij -yob) - y] 2 ... number 9 X 3 = x r -x l ... Equation 10 In the above equations (8), (9) and (10), y
ij and x ij are x and y coordinates calculated from the equation (1) in the distance image (i, j), yob is the height of the road surface in the real space, and y is all of (y ij -yob) Is the average of the values.

【0026】路面の高さyobは距離画像で白線が検出さ
れていれば、白線を路面の高さとし、検出されない場合
は0とする。道路上に引かれた白線は、路面のアスファ
ルトとの境界に強いエッジ(白線の場合は暗→明→暗の
エッジ)が存在し、道路面より輝度値が高く、数十cm
以上の幅を持っていることが特徴としてあげられる。x
、xは物体領域の距離画像における左端点と右端点
の値から前記(数1)によって計算される値である。
The height yob of the road surface is set to the height of the road surface if a white line is detected in the distance image, and is set to 0 otherwise. The white line drawn on the road has a strong edge (dark → bright → dark edge in the case of the white line) at the boundary with the asphalt on the road surface, has a higher brightness value than the road surface, and several tens of cm.
The feature is that it has the above width. x
r, x l is the value calculated by the the value of the left end point and right point in the distance image of the object area (the number 1).

【0027】次にステップS106では、歩行者候補領
域の抽出を行う。ここでは、下記(数11)式のような
一次式となるa、b、c、dの値を判別分析法により予
め実験等で求めておく。そして検出された物体領域の特
徴量を下記(数11)式に代入して、物体領域mにおけ
るSの値Sを求める。その結果、(数11)式のよう
な3つの特徴量の重み付き合計得点Sの値が0以上であ
る時に、その物体領域mを歩行者候補とする。 S=aX+bX+cX+d …(数11) Sの値が0以上の場合には、次のステップS107の処
理に移り、Sの値が0未満の時にはステップS105へ
戻って、次の物体領域Sm+1で特徴量を計算する。こ
のような処理を全ての物体領域mに対して行う。
Next, in step S106, a pedestrian candidate area is extracted. Here, the values of a, b, c, and d, which are linear expressions such as the following Expression (11), are obtained in advance by experiments or the like by a discriminant analysis method. And a feature quantity of the detected object area are substituted into the following equation (11), obtaining a value S m of S in the object region m. As a result, when the value of the weighted total score S of the three feature amounts as in Expression (11) is equal to or greater than 0, the object region m is set as a pedestrian candidate. S = aX 1 + bX 2 + cX 3 + d (Equation 11) When the value of S is 0 or more, the process proceeds to the next step S107, and when the value of S is less than 0, the process returns to step S105, and the next process is performed. The feature amount is calculated in the object area S m + 1 . Such a process is performed for all object regions m.

【0028】次にステップS107では、歩行者の最終
判断を行う。歩行者候補領域mに対応する輝度画像に対
して、領域mの縦方向を画像上端まで拡張し、領域内の
ヒストグラム形状を示す尖度kを前記(数7)式によ
り計算する。その結果、kがしきい値t以下である
ときは歩行者と判断し、ステップS108で距離と横位
置の算出を行う。また、しきい値tより大きいときは
電柱等であると判断し、次の領域の処理に移る。このよ
うな処理を全ての歩行者候補領域に対して行う。
Next, in step S107, the final decision of the pedestrian is made. The luminance image corresponding to the pedestrian candidate region m, extends the longitudinal direction of a region m to image the upper end, is calculated by the kurtosis k m showing a histogram shape of the region and the (number 7). As a result, when k m is the threshold value t 1 below determines a pedestrian, to calculate the distance and lateral position in step S108. Further, it is determined that the time is greater than the threshold value t 1 is a utility pole or the like, proceeds to process the next region. Such processing is performed for all pedestrian candidate areas.

【0029】なお、これまでの説明は、車両用の歩行者
検知装置に本発明を適用した場合を例示したが、本発明
はそれに限られるものではなく、例えば、自動ドアなど
において、歩行者の接近を検知して自動的にドアを開く
ような装置にも適用できる。
In the above description, the case where the present invention is applied to a pedestrian detecting device for a vehicle has been exemplified. However, the present invention is not limited to this case. The present invention can also be applied to a device that detects an approach and automatically opens a door.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態の構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.

【図2】ステレオ画像を用いて三角測量の原理でカメラ
から物体までの距離を求める原理を説明する図。
FIG. 2 is a view for explaining the principle of obtaining a distance from a camera to an object based on the principle of triangulation using stereo images.

【図3】入力した左右画像におけるマッチング位置を求
めた結果を示す図であり、(A)は左画像を複数の小領
域に分割した状態を示す図、(B)は右画像を示す図、
(C)は視差の値が同じ領域のかたまりを抜き出した
図。
3A and 3B are diagrams illustrating a result of finding matching positions in input left and right images, where FIG. 3A illustrates a state in which a left image is divided into a plurality of small regions, FIG. 3B illustrates a right image,
FIG. 4C is a diagram in which a block of an area having the same parallax value is extracted.

【図4】物体幅と縦分散を特徴とした場合における処理
を説明するための図であり、(A)と(B)はt秒間隔
で撮像した自車前方の画像、(C)は物体幅と縦分散を
とったグラフ。
FIGS. 4A and 4B are diagrams for explaining a process in a case where the object width and the vertical variance are featured. FIGS. 4A and 4B are images taken in front of the vehicle at t-second intervals, and FIG. Graph with width and vertical dispersion.

【図5】ヒストグラムの形状の特徴を示す図であり、
(A)は自車前方の画像、(B)は電柱の分布、(C)
は歩行者の分布。
FIG. 5 is a diagram showing characteristics of a histogram shape;
(A) is an image in front of the vehicle, (B) is a distribution of utility poles, (C)
Is the distribution of pedestrians.

【図6】実施例における処理を示すフローチャート。FIG. 6 is a flowchart showing processing in the embodiment.

【符号の説明】 1、2…電子式のカメラ 3、4…メモリ 5…演算部 6…自車両前方に存在する検出対象物[Description of Signs] 1, 2 ... Electronic camera 3, 4 ... Memory 5 ... Calculation unit 6 ... Detection target existing in front of own vehicle

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 330 G01B 11/24 K G08G 1/04 N Fターム(参考) 2F065 AA04 AA06 AA22 AA53 BB05 BB15 CC11 CC16 FF05 FF09 GG04 JJ03 JJ05 JJ26 MM16 PP01 QQ03 QQ17 QQ24 QQ25 QQ26 QQ27 QQ28 QQ38 QQ41 QQ42 QQ43 2F112 AC03 BA06 CA05 CA12 FA03 FA21 FA36 FA38 FA45 5B057 AA16 CH11 DA07 DB03 DB09 DC02 DC03 DC06 DC23 5H180 AA21 CC03 CC04 CC14 CC24──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (reference) G06T 1/00 330 G01B 11/24 K G08G 1/04 NF term (reference) 2F065 AA04 AA06 AA22 AA53 BB05 BB15 CC11 CC16 FF05 FF09 GG04 JJ03 JJ05 JJ26 MM16 PP01 QQ03 QQ17 QQ24 QQ25 QQ26 QQ27 QQ28 QQ38 QQ41 QQ42 QQ43 2F112 AC03 BA06 CA05 CA12 FA03 FA21 FA36 FA38 FA45 5B057 AA16 CH11 DA07 DB03 CC03 DC02 DC03 DC02

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】前方に存在する物体までの距離を2次元の
距離情報として検出する距離情報検出手段と、 前記距離情報から予め定めた歩行者検出用の複数の特徴
量を演算する演算手段と、 前記の各特徴量に予め定めた重み付けを行い、重み付け
を行った各特徴量に基づいて歩行者か否かを判断する判
断手段と、 を備えたことを特徴とする歩行者検知装置。
1. A distance information detecting means for detecting a distance to an object existing ahead as two-dimensional distance information; and a calculating means for calculating a plurality of predetermined pedestrian detection feature amounts from the distance information. A pedestrian detection device, comprising: a weighting unit that weights each of the feature amounts in advance and determines whether or not the pedestrian is based on each of the weighted feature amounts.
【請求項2】前記距離情報から物体の存在する物体領域
を検出する検出手段を備え、 前記演算手段は、特徴量として、少なくとも前記物体領
域の物体幅と縦分散を演算し、 前記判断手段は、物体幅と縦分散に予め定めた重み付け
を行い、重み付けを行った物体幅と縦分散に基づいて歩
行者か否かを判断することを特徴とする請求項1に記載
の歩行者検知装置。
2. A method according to claim 1, further comprising detecting means for detecting an object area where an object is present from the distance information, wherein the calculating means calculates at least an object width and a vertical variance of the object area as a characteristic amount. The pedestrian detection device according to claim 1, wherein a predetermined weight is assigned to the object width and the vertical variance, and whether the object is a pedestrian is determined based on the weighted object width and the vertical variance.
【請求項3】前記距離情報から物体の存在する物体領域
を検出する検出手段を備え、 前記演算手段は、特徴量として、少なくとも前記物体領
域の物体幅と縦分散と縦重心を演算し、 前記判断手段は、物体幅と縦分散と縦重心に予め定めた
重み付けを行い、重み付けを行った物体幅、縦分散、縦
重心に基づいて歩行者か否かを判断することを特徴とす
る請求項1に歩行者検知装置。
3. A detecting means for detecting an object area in which an object is present from the distance information, wherein the calculating means calculates at least an object width, a vertical variance, and a vertical center of gravity of the object area as a characteristic amount, The determining means performs predetermined weighting on the object width, the vertical variance, and the vertical center of gravity, and determines whether the object is a pedestrian based on the weighted object width, the vertical variance, and the vertical center of gravity. 1 is a pedestrian detection device.
【請求項4】一応歩行者と判断された物体の2次元距離
画像上の領域および画像上で当該領域よりも高い位置の
領域について、輝度情報の垂直方向の積算ヒストグラム
を算出する積算ヒストグラム算出手段と、 前記垂直方向の積算値の分布に基づいて歩行者か否かを
再度判断する再判断手段と、 を備えたことを特徴とする請求項1乃至請求項3の何れ
かに記載の歩行者検知装置。
4. An integrated histogram calculating means for calculating a vertical integrated histogram of luminance information for an area on a two-dimensional distance image of an object once determined to be a pedestrian and an area at a position higher than the area on the image. The pedestrian according to any one of claims 1 to 3, further comprising: re-determining means for determining again whether or not the person is a pedestrian based on the distribution of the integrated value in the vertical direction. Detection device.
【請求項5】カメラの光軸が平行に取り付けられ、前方
を撮影する2台のカメラと、 前記2台のカメラで撮影された映像をデジタル画像とし
て記憶するメモリと、 前記2台のカメラで撮像した画像のうち、何れか一方の
画像を所定の大きさの小領域に分割する手段と、 分割した各領域において、その領域と最も一致度が高い
領域の位置をもう他方の画像から検出することによって
各領域毎の視差を求める手段と、 各領域間の視差と2台のカメラの位置関係から三角測量
の原理に基づいて領域内に存在する歩行者の実空間上で
の3次元形状の特徴量を求め、それに基づいて歩行者の
判別を行う手段と、 備えたことを特徴とする歩行者検知装置。
5. A camera, wherein the optical axes of the cameras are mounted parallel to each other, two cameras for photographing the front, a memory for storing images photographed by the two cameras as digital images, and Means for dividing one of the captured images into small areas of a predetermined size, and detecting, from each of the divided areas, a position of an area having the highest matching degree with that area from the other image. Means for calculating the parallax of each area by using the parallax between each area and the positional relationship between the two cameras. The three-dimensional shape of the pedestrian existing in the area in the real space based on the principle of triangulation. A pedestrian detection device comprising: means for determining a characteristic amount and determining a pedestrian based on the characteristic amount;
JP2000173005A 2000-06-09 2000-06-09 Pedestrian detection device Expired - Fee Related JP3729025B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000173005A JP3729025B2 (en) 2000-06-09 2000-06-09 Pedestrian detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000173005A JP3729025B2 (en) 2000-06-09 2000-06-09 Pedestrian detection device

Publications (2)

Publication Number Publication Date
JP2001351193A true JP2001351193A (en) 2001-12-21
JP3729025B2 JP3729025B2 (en) 2005-12-21

Family

ID=18675309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000173005A Expired - Fee Related JP3729025B2 (en) 2000-06-09 2000-06-09 Pedestrian detection device

Country Status (1)

Country Link
JP (1) JP3729025B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1564703A1 (en) 2004-02-13 2005-08-17 Fuji Jukogyo Kabushiki Kaisha Vehicle driving assist system
JP2005352974A (en) * 2004-06-14 2005-12-22 Honda Motor Co Ltd Vehicle circumference monitoring device
JP2006046960A (en) * 2004-07-30 2006-02-16 Matsushita Electric Works Ltd Image processing device
JP2009069145A (en) * 2007-09-13 2009-04-02 Delphi Technologies Inc Method for detecting object
US7567688B2 (en) 2004-11-30 2009-07-28 Honda Motor Co., Ltd. Apparatus for and method of extracting image
US7590263B2 (en) 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7599521B2 (en) 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7616806B2 (en) 2004-11-30 2009-11-10 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
US7620237B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
JP2012093295A (en) * 2010-10-28 2012-05-17 Shigenori Tanaka Target region extractor
WO2014050285A1 (en) * 2012-09-27 2014-04-03 日立オートモティブシステムズ株式会社 Stereo camera device
JP2015046162A (en) * 2004-07-26 2015-03-12 オートモーティブ システムズ ラボラトリー インコーポレーテッド Vulnerable road user protection method
KR20160035463A (en) * 2014-09-23 2016-03-31 현대자동차주식회사 System for tracking a object in road and method thereof
JP2017036945A (en) * 2015-08-07 2017-02-16 株式会社Ihiエアロスペース Moving body and obstacle detection method of the same
JP2018072105A (en) * 2016-10-27 2018-05-10 株式会社Soken Object detection device
JP2019020167A (en) * 2017-07-12 2019-02-07 株式会社デンソーテン Radar device and method for processing signal
JP2020135617A (en) * 2019-02-22 2020-08-31 株式会社豊田自動織機 Object detection device
JP2020135616A (en) * 2019-02-22 2020-08-31 株式会社豊田自動織機 Object detection device
CN111964574A (en) * 2020-06-23 2020-11-20 安徽理工大学 Three-dimensional laser target sphere center fitting method based on weight selection iterative wolf colony algorithm

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1564703A1 (en) 2004-02-13 2005-08-17 Fuji Jukogyo Kabushiki Kaisha Vehicle driving assist system
US7548634B2 (en) 2004-02-13 2009-06-16 Fuji Jukogyo Kabushiki Kaisha Pedestrian detection system and vehicle driving assist system with a pedestrian detection system
JP2005352974A (en) * 2004-06-14 2005-12-22 Honda Motor Co Ltd Vehicle circumference monitoring device
US7436982B2 (en) 2004-06-14 2008-10-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2015046162A (en) * 2004-07-26 2015-03-12 オートモーティブ システムズ ラボラトリー インコーポレーテッド Vulnerable road user protection method
JP2006046960A (en) * 2004-07-30 2006-02-16 Matsushita Electric Works Ltd Image processing device
US7567688B2 (en) 2004-11-30 2009-07-28 Honda Motor Co., Ltd. Apparatus for and method of extracting image
US7590263B2 (en) 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7599521B2 (en) 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7616806B2 (en) 2004-11-30 2009-11-10 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
US7620237B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
JP2009069145A (en) * 2007-09-13 2009-04-02 Delphi Technologies Inc Method for detecting object
JP2012093295A (en) * 2010-10-28 2012-05-17 Shigenori Tanaka Target region extractor
WO2014050285A1 (en) * 2012-09-27 2014-04-03 日立オートモティブシステムズ株式会社 Stereo camera device
JP2014067320A (en) * 2012-09-27 2014-04-17 Hitachi Automotive Systems Ltd Stereo camera device
KR20160035463A (en) * 2014-09-23 2016-03-31 현대자동차주식회사 System for tracking a object in road and method thereof
KR102164637B1 (en) * 2014-09-23 2020-10-12 현대자동차주식회사 System for tracking a object in road and method thereof
JP2017036945A (en) * 2015-08-07 2017-02-16 株式会社Ihiエアロスペース Moving body and obstacle detection method of the same
JP2018072105A (en) * 2016-10-27 2018-05-10 株式会社Soken Object detection device
JP2019020167A (en) * 2017-07-12 2019-02-07 株式会社デンソーテン Radar device and method for processing signal
JP7127969B2 (en) 2017-07-12 2022-08-30 株式会社デンソーテン Radar device and signal processing method
JP2020135617A (en) * 2019-02-22 2020-08-31 株式会社豊田自動織機 Object detection device
JP2020135616A (en) * 2019-02-22 2020-08-31 株式会社豊田自動織機 Object detection device
JP7081526B2 (en) 2019-02-22 2022-06-07 株式会社豊田自動織機 Object detector
JP7180445B2 (en) 2019-02-22 2022-11-30 株式会社豊田自動織機 object detector
CN111964574A (en) * 2020-06-23 2020-11-20 安徽理工大学 Three-dimensional laser target sphere center fitting method based on weight selection iterative wolf colony algorithm

Also Published As

Publication number Publication date
JP3729025B2 (en) 2005-12-21

Similar Documents

Publication Publication Date Title
CN109034047B (en) Lane line detection method and device
JP3729025B2 (en) Pedestrian detection device
Toulminet et al. Vehicle detection by means of stereo vision-based obstacles features extraction and monocular pattern analysis
US7769227B2 (en) Object detector
US7612800B2 (en) Image processing apparatus and method
US8204278B2 (en) Image recognition method
JP4363295B2 (en) Plane estimation method using stereo images
EP2960829A2 (en) Lane boundary estimation device and lane boundary estimation method
CN105069804B (en) Threedimensional model scan rebuilding method based on smart mobile phone
US10776637B2 (en) Image processing device, object recognizing device, device control system, image processing method, and computer-readable medium
CN108645375B (en) Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system
US7221789B2 (en) Method for processing an image captured by a camera
WO2020154990A1 (en) Target object motion state detection method and device, and storage medium
JPH11252587A (en) Object tracking device
JPH09226490A (en) Detector for crossing object
JP2009053818A (en) Image processor and method thereof
JP2003099762A (en) Precedent vehicle recognition device and recognition method
JP2005329779A (en) Method and device for recognizing obstacle
JP2000207693A (en) Obstacle detector on vehicle
JP3633368B2 (en) Obstacle detection device
JP2007316856A (en) Traveling object detecting device, computer program, and traveling object detection method
JP4123138B2 (en) Vehicle detection method and vehicle detection device
JP3988574B2 (en) Image processing device
JP2983420B2 (en) Inter-vehicle distance measurement device
JP2005062910A (en) Image recognition device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050926

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091014

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101014

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111014

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121014

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121014

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131014

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees