JP2003259357A - Calibration method for camera and attachment of camera - Google Patents

Calibration method for camera and attachment of camera

Info

Publication number
JP2003259357A
JP2003259357A JP2002059089A JP2002059089A JP2003259357A JP 2003259357 A JP2003259357 A JP 2003259357A JP 2002059089 A JP2002059089 A JP 2002059089A JP 2002059089 A JP2002059089 A JP 2002059089A JP 2003259357 A JP2003259357 A JP 2003259357A
Authority
JP
Japan
Prior art keywords
camera
vehicle
road plane
distance
range finder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002059089A
Other languages
Japanese (ja)
Inventor
Makito Seki
真規人 関
Hideto Fujiwara
秀人 藤原
Kazuhiko Washimi
和彦 鷲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2002059089A priority Critical patent/JP2003259357A/en
Publication of JP2003259357A publication Critical patent/JP2003259357A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a calibration method for a camera capable of performing calibration of a monitor camera without the need for installing a marker on a road and performing traffic regulation and to provide a camera attachment. <P>SOLUTION: A normal vector of a plane including feature quantities is calculated from coordinates of a plurality of the feature quantities detected by a feature quantity detection section 4 and a road plane parameter is calculated from the normal vector of the plane and a distance L from the camera 1 to the road plane measured along the optical axis of the camera 1. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、道路や施設など
に設置された監視用のカメラのキャリブレーション方法
及びカメラのアタッチメントに関するものである。ここ
では、カメラ座標系から見た道路平面パラメータを算出
することをキャリブレーションと呼ぶものとする。な
お、カメラ座標系における道路平面パラメータは、道路
平面におけるカメラの高さや向き(チルト角、パン角)
として言い換えることもできる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for calibrating a surveillance camera installed on a road or a facility, and a camera attachment. Here, the calculation of the road plane parameter viewed from the camera coordinate system is called calibration. The road plane parameters in the camera coordinate system are the height and direction (tilt angle, pan angle) of the camera on the road plane.
Can also be paraphrased as.

【0002】[0002]

【従来の技術】道路監視システムでは、車両の位置や速
度を計測するために、監視エリアの基準平面である道路
平面とカメラとの関係をあらかじめ算出しておく必要が
ある。特開平4−150591号公報には、道路上の白
線を利用することにより、監視カメラのキャリブレーシ
ョンを実施するカメラのキャリブレーション方法が開示
されている。このキャリブレーション方法では、道路上
の白線が直線でなければならず、カーブ道路などには用
いることができない。また、道路に白線などの明確な特
徴がない場合もある。
2. Description of the Related Art In a road monitoring system, in order to measure the position and speed of a vehicle, it is necessary to calculate in advance the relationship between a camera and a road plane, which is a reference plane of a monitoring area. Japanese Unexamined Patent Publication No. 4-150591 discloses a camera calibration method for calibrating a surveillance camera by using a white line on a road. In this calibration method, the white line on the road must be a straight line and cannot be used for curved roads. In some cases, roads do not have clear features such as white lines.

【0003】そこで、最近では、道路上にマーカ(特徴
点)を設置し、マーカ間の距離を道路上で実測するとと
もに、そのマーカの画像上の座標値を抽出して利用する
ことにより、監視カメラのキャリブレーションを実施す
るようにしている。なお、キャリブレーションの具体的
な計算方法は、例えば、「単眼視画像による顔の向き検
出法の指示入力への応用」(電子情報通信学会論文誌D
−II、Vol.J72−D−II、No.9、pp.
1441−1447、1989年)に記載されている。
Therefore, recently, a marker (characteristic point) is installed on the road, the distance between the markers is measured on the road, and the coordinate value on the image of the marker is extracted and used to monitor. I am trying to calibrate the camera. A specific method of calculating the calibration is, for example, “application of face orientation detection method using monocular image to instruction input” (IEICE Transactions D
-II, Vol. J72-D-II, No. 9, pp.
1441-1447, 1989).

【0004】即ち、上記文献に記載の方法を利用すれ
ば、道路平面と監視カメラとの関係は次のようにして得
ることができる。カメラレンズの主点を原点とするカメ
ラ座標系(X,Y,Z)と、画像平面(x,y)とを図
11のように設定する。カメラの焦点距離をfとし、光
軸はZ軸に一致しているとする。ここで、道路平面上の
3つのマーカP(X,Y,Z)の投影像をQ
(x,y)(n=1,2,3)とすると、Pは原
点OとQを通る直線上に存在することになる。したが
って、Pの位置ベクトルpは、直線OQの方向を
表す単位ベクトルuとスカラーaを用いて表せる。 p=u
That is, by using the method described in the above document, the relationship between the road plane and the surveillance camera can be obtained as follows. A camera coordinate system (X, Y, Z) whose origin is the principal point of the camera lens and an image plane (x, y) are set as shown in FIG. It is assumed that the focal length of the camera is f and the optical axis coincides with the Z axis. Here, the projected images of the three markers P n (X n , Y n , Z n ) on the road plane are Q n.
Assuming that (x n , y n ) (n = 1, 2, 3), P n exists on a straight line passing through the origins O and Q n . Therefore, the position vector p n of P n can be expressed using the unit vector u n scalar a n representing the direction of the straight line OQ n. p n = u n a n

【0005】ここで、uは投影像Qの座標値
(x,y)を用いると、下記のようになる。 u=(x,y,f)/(x ,y ,f
1/2 また、スカラーaは原点OからPまでの距離を表し
ており、aが決まればPの3次元位置を求めること
ができる。
Where unIs the projected image QnCoordinate value of
(Xn, Yn) Is used, it becomes as follows. un= (Xn, Yn, F) / (xTwo n, YTwo n, FTwo)
1/2 Also, the scalar anIs origin O to PnRepresents the distance to
And anP is decidednThe three-dimensional position of
You can

【0006】ここで、Pに関する情報として2つのマ
ーカP,P間の距離lmnを予め測ることができる
ため、次のように表せる。 |p−p|=lmn また、P,P間の距離は、次のようにも表せる。 |p−p=a +a −2(u,u
Where PnTwo pieces of information about
Maker Pm, PnDistance lmnCan be measured in advance
Therefore, it can be expressed as follows. | pm-Pn│ = 1mn Also, Pm, PnThe distance between them can also be expressed as follows. | pm-PnTwo= ATwo m+ ATwo n-2 (um, Un)
aman

【0007】したがって、下式が成立する。 a +a −2(u,u)a=l mn 同様にして、3つのマーカの各2点で式を導出すると、
次の連立方程式が得られる。 a +a −2(u,u)a=l 12 +a −2(u,u)a=l 23 +a −2(u,u)a=l 31
Therefore, the following equation is established. aTwo m+ ATwo n-2 (um, Un) Aman= LTwo mn Similarly, deriving the equation at each two points of the three markers,
The following simultaneous equations are obtained. aTwo 1+ ATwo Two-2 (u1, UTwo) A1aTwo= LTwo 12 aTwo Two+ ATwo Three-2 (uTwo, UThree) ATwoaThree= LTwo 23 aTwo Three+ ATwo 1-2 (uThree, U1) AThreea1= LTwo 31

【0008】この連立方程式を解いて、解a,a
をp=uに代入すれば、3つのマーカP
の3次元座標値を求めることができる。次に、3つのマ
ーカを通る平面を算出すると、カメラ座標系における道
路平面が得られる。
By solving this simultaneous equation, the solutions a 1 , a 2 ,
Substituting a 3 into p n = u n a n , the three markers P n
The three-dimensional coordinate value of can be obtained. Next, by calculating the plane passing through the three markers, the road plane in the camera coordinate system is obtained.

【0009】[0009]

【発明が解決しようとする課題】従来のカメラのキャリ
ブレーション方法は以上のように構成されているので、
十分な交通規制を実施することができれば、道路上にマ
ーカを設置して、マーカ間の距離を道路上で実測すると
ともに、そのマーカの画像上の座標値を抽出することに
より、カメラのキャリブレーションを実施することがで
きる。しかし、監視場所によっては十分な交通規制を実
施できず、監視カメラのキャリブレーションを実施する
ことができない課題があった。また、その作業には多く
の時間と手間を要する課題もあった。
Since the conventional camera calibration method is configured as described above,
If sufficient traffic control can be implemented, a marker is installed on the road, the distance between the markers is measured on the road, and the coordinate values on the image of the marker are extracted to calibrate the camera. Can be carried out. However, there was a problem that sufficient traffic regulation could not be implemented depending on the surveillance location, and the surveillance camera could not be calibrated. There was also a problem that the work required a lot of time and labor.

【0010】この発明は上記のような課題を解決するた
めになされたもので、道路上へのマーカの設置や交通規
制を実施することなく、監視カメラのキャリブレーショ
ンを実施することができるカメラのキャリブレーション
方法及びカメラのアタッチメントを得ることを目的とす
る。
The present invention has been made in order to solve the above problems, and a camera capable of calibrating a surveillance camera without installing markers on the road or restricting traffic. It is intended to obtain a calibration method and a camera attachment.

【0011】[0011]

【課題を解決するための手段】この発明に係るカメラの
キャリブレーション方法は、カメラの光軸に沿って計測
したカメラから道路平面までの距離と、複数の特徴点の
座標値とから道路平面パラメータを算出するようにした
ものである。
A camera calibration method according to the present invention uses a road plane parameter based on a distance from the camera to a road plane measured along an optical axis of the camera and coordinate values of a plurality of feature points. Is calculated.

【0012】この発明に係るカメラのキャリブレーショ
ン方法は、車両の画像から道路平面と平行な車両上の平
面の長方形領域を探索し、その長方形領域の端点を特徴
点として検出するようにしたものである。
The camera calibration method according to the present invention searches for a rectangular area on a plane parallel to the road plane on the vehicle from the image of the vehicle and detects the end points of the rectangular area as feature points. is there.

【0013】この発明に係るカメラのキャリブレーショ
ン方法は、撮像時刻が異なる2つの車両の画像から相互
に水平に設置されている車両上の2つの部位を特徴点と
してそれぞれ検出するようにしたものである。
In the camera calibration method according to the present invention, two parts on the vehicle which are installed horizontally are mutually detected as feature points from the images of the two vehicles having different image capturing times. is there.

【0014】この発明に係るカメラのキャリブレーショ
ン方法は、左右のテールランプ、または、左右のヘッド
ライトを特徴点として検出するようにしたものである。
The camera calibration method according to the present invention detects the left and right tail lamps or the left and right headlights as feature points.

【0015】この発明に係るカメラのキャリブレーショ
ン方法は、撮像対象の車両を変えながら道路平面パラメ
ータの算出処理を繰り返し実行し、その算出した複数の
道路平面パラメータを平均化するようにしたものであ
る。
In the camera calibration method according to the present invention, the road plane parameter calculation process is repeatedly executed while changing the vehicle to be imaged, and the calculated plurality of road plane parameters are averaged. .

【0016】この発明に係るカメラのアタッチメント
は、カメラのレンズマウントに円筒部材を取り付けると
ともに、その円筒部材の中心軸上にカメラから道路平面
までの距離をカメラの光軸に沿って計測する測距計を設
置するようにしたものである。
The attachment of the camera according to the present invention is such that a cylindrical member is attached to the lens mount of the camera, and the distance from the camera to the road plane is measured on the central axis of the cylindrical member along the optical axis of the camera. It is designed to install a meter.

【0017】この発明に係るカメラのアタッチメント
は、円筒部材の内部に設置されたハーフミラーを介し
て、測距計がカメラから道路平面までの距離をカメラの
光軸に沿って計測するようにしたものである。
In the attachment of the camera according to the present invention, the distance meter measures the distance from the camera to the road plane along the optical axis of the camera via the half mirror installed inside the cylindrical member. It is a thing.

【0018】この発明に係るカメラのアタッチメント
は、カメラの視野中心とファインダを通じて見える映像
中心が一致するように、測距計をカメラに取り付けたも
のである。
In the camera attachment according to the present invention, the range finder is attached to the camera so that the center of the field of view of the camera and the center of the image viewed through the finder coincide.

【0019】[0019]

【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1はこの発明の実施の形態1によるカ
メラのキャリブレーション方法を適用するキャリブレー
ション装置を示す構成図であり、図において、1は監視
用のカメラ、2はカメラ1から道路平面までの距離をカ
メラ1の光軸に沿って計測するレーザ測距計(測距
計)、3はカメラ1の撮像を制御して、カメラ1により
撮像された車両の画像を受信するとともに、レーザ測距
計2の測距を制御して、レーザ測距計2により計測され
た距離を受信する制御部、4はカメラ1により撮像され
た車両の画像から車両上の複数の特徴点を検出する特徴
点検出部、5は特徴点検出部4により検出された複数の
特徴点の座標値から、カメラ1の座標系において、特徴
点を含む平面の法線ベクトルを算出する法線ベクトル算
出部、6は法線ベクトル算出部5により算出された法線
ベクトルとカメラ1から道路平面までの距離から道路平
面パラメータを算出するパラメータ算出部である。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below. Embodiment 1. FIG. 1 is a configuration diagram showing a calibration device to which a camera calibration method according to a first embodiment of the present invention is applied. In the figure, 1 is a monitoring camera, and 2 is a distance from the camera 1 to a road plane. A laser range finder (range finder) 3 that measures along the optical axis of the camera 1 controls the imaging of the camera 1 to receive the image of the vehicle captured by the camera 1 and a laser range finder 2 The control unit 4 which controls the distance measurement of the vehicle and receives the distance measured by the laser range finder 2 is a feature point detection unit which detects a plurality of feature points on the vehicle from the image of the vehicle captured by the camera 1. Reference numeral 5 is a normal vector calculation unit that calculates a normal vector of a plane including the feature points in the coordinate system of the camera 1 from coordinate values of the plurality of feature points detected by the feature point detection unit 4, and 6 is a normal line. According to the vector calculation unit 5 From the distance from the calculated normal vector and the camera 1 to the road plane is a parameter calculator for calculating a road plane parameter.

【0020】なお、図2はカメラと道路平面の関係を示
す説明図であり、図3はこの発明の実施の形態1による
カメラのキャリブレーション方法を示すフローチャート
である。
FIG. 2 is an explanatory diagram showing the relationship between the camera and the road plane, and FIG. 3 is a flowchart showing the camera calibration method according to the first embodiment of the present invention.

【0021】次に動作について説明する。まず、制御部
3は、測距開始指令をレーザ測距計2に出力する。レー
ザ測距計2は、制御部3から測距開始指令を受けると、
図2に示すように、カメラ1から道路平面までの距離L
をカメラ1の光軸に沿って計測し、その計測結果である
距離Lを制御部3に出力する(ステップST1)。な
お、制御部3は、レーザ測距計2から計測結果である距
離Lを受信すると、その計測結果である距離Lをパラメ
ータ算出部6に出力する。
Next, the operation will be described. First, the control unit 3 outputs a distance measurement start command to the laser distance meter 2. When the laser distance meter 2 receives a distance measurement start command from the control unit 3,
As shown in FIG. 2, the distance L from the camera 1 to the road plane
Is measured along the optical axis of the camera 1, and the distance L as the measurement result is output to the control unit 3 (step ST1). When the control unit 3 receives the measurement result distance L from the laser range finder 2, the control unit 3 outputs the measurement result distance L to the parameter calculation unit 6.

【0022】ここで、レーザ測距計2がカメラ1の光軸
と同軸上で計測することにより、必然的に道路上の測距
ポイントPは、カメラ座標系にて(0,0,L)として
近似することができるようになり、その投影点Qは、画
像中央(0,0)にほぼ対応する。したがって、測距ポ
イントPを明確にするようなマーカを道路上に設置する
必要はなく、測距ポイントPに対応する画像の座標値を
検出する必要もない。
Here, since the laser distance meter 2 measures coaxially with the optical axis of the camera 1, the distance measuring point P on the road is inevitably (0, 0, L) in the camera coordinate system. Can be approximated, and its projection point Q substantially corresponds to the image center (0, 0). Therefore, it is not necessary to install a marker for clarifying the distance measuring point P on the road, and it is not necessary to detect the coordinate value of the image corresponding to the distance measuring point P.

【0023】次に、制御部3は、撮像開始指令をカメラ
1に出力する。カメラ1は、制御部3から撮像開始指令
を受けると、図2に示すように、監視エリアを走行する
一般車両を撮影し、その撮像結果である車両の画像を制
御部3に出力する(ステップST2)。なお、制御部3
は、カメラ1から車両の画像を受信すると、その画像を
特徴点検出部4に出力する。
Next, the control section 3 outputs an image pickup start command to the camera 1. When the camera 1 receives the image capturing start command from the control unit 3, as shown in FIG. 2, the camera 1 captures an image of a general vehicle traveling in the monitoring area and outputs the image of the vehicle, which is the image capture result, to the control unit 3 (step ST2). The control unit 3
When receiving the image of the vehicle from the camera 1, outputs the image to the feature point detection unit 4.

【0024】特徴点検出部4は、制御部3から車両の画
像を受けると、車両の画像から車両上の4つの特徴点を
検出する(ステップST3)。具体的には、図4に示す
ように、車両の画像から道路平面と平行な車両上の平面
の長方形領域(図4の破線を参照)を探索し、その長方
形領域の端点を特徴点として検出する。なお、一般的に
は、特徴点検出部4が画像処理を実施して特徴点を検出
する。
When the feature point detection unit 4 receives the image of the vehicle from the control unit 3, the feature point detection unit 4 detects four feature points on the vehicle from the image of the vehicle (step ST3). Specifically, as shown in FIG. 4, a rectangular area of the plane on the vehicle parallel to the road plane (see the broken line in FIG. 4) is searched from the image of the vehicle, and the end points of the rectangular area are detected as feature points. To do. Note that, in general, the feature point detection unit 4 performs image processing to detect the feature points.

【0025】法線ベクトル算出部5は、特徴点検出部4
が4つの特徴点を検出すると、4つの特徴点の座標値か
ら、カメラ1の座標系において、特徴点を含む平面の法
線ベクトル(V,V,V)を算出する(ステップ
ST4)。法線ベクトルの具体的な計算方法は、例え
ば、「人工現実感インタフェースのための単眼画像から
のマーカの位置と姿勢の計測」(電子情報通信学会論文
誌A、Vol.J79―A、No.3、pp.804−
812、1996年)に記載されている。
The normal vector calculation unit 5 includes a feature point detection unit 4
There detects the four characteristic points, the coordinate values of the four characteristic points are calculated in the coordinate system of the camera 1, the normal vector of the plane containing the feature point (V x, V y, V z) (steps ST4 ). A specific method of calculating the normal vector is, for example, “Measurement of position and orientation of marker from monocular image for artificial reality interface” (IEICE Transactions A, Vol. J79-A, No. 3, pp. 804-
812, 1996).

【0026】パラメータ算出部6は、法線ベクトル算出
部5が法線ベクトル(V,V,V)を算出する
と、その法線ベクトル(V,V,V)とカメラ1
から道路平面までの距離Lから道路平面パラメータを算
出する(ステップST5)。ここでは、測距ポイントP
(0,0,L)を含み、法線ベクトル(V,V,V
)を持つ平面を算出すればよく、その平面の方程式は
下記の通りである。 Vx+Vy+V(z−L)=0
The parameter calculating section 6, the vector generator 5 is the normal vector (V x, V y, V z) calculating the camera 1 the normal vector (V x, V y, V z) and
A road plane parameter is calculated from the distance L from the road plane to the road plane (step ST5). Here, the distance measuring point P
Including (0, 0, L), the normal vector (V x , V y , V
It is sufficient to calculate a plane having z 1 ) and the equation of the plane is as follows. V x x + V y y + V z (z-L) = 0

【0027】以上で明らかなように、この実施の形態1
によれば、特徴点検出部4により検出された複数の特徴
点の座標値から特徴点を含む平面の法線ベクトルを算出
し、その平面の法線ベクトルとカメラ1の光軸に沿って
計測したカメラ1から道路平面までの距離Lとから道路
平面パラメータを算出するように構成したので、道路上
へのマーカの設置や交通規制を実施することなく、監視
カメラのキャリブレーションを実施することができる効
果を奏する。また、一般車両上の特徴点を利用するた
め、専用車両などを用意する手間が省け、作業員の負荷
を軽くすることができる。また、長方形領域の端点を特
徴点とするため、複雑な形状を用いるよりも計算の簡単
化を図ることができる。
As is clear from the above, the first embodiment
According to the above, the normal vector of the plane including the feature points is calculated from the coordinate values of the plurality of feature points detected by the feature point detection unit 4, and the normal vector of the plane and the optical axis of the camera 1 are measured. Since the road plane parameter is calculated from the distance L from the camera 1 to the road plane, the surveillance camera can be calibrated without setting markers on the road or restricting traffic. There is an effect that can be done. Further, since the characteristic points on the general vehicle are used, it is possible to save the trouble of preparing a dedicated vehicle and the like, and reduce the load on the worker. Further, since the end points of the rectangular area are used as the feature points, the calculation can be simplified as compared with the case of using a complicated shape.

【0028】この実施の形態1では、4つの特徴点とし
て車両上面の長方形領域の端点を選択するものについて
示したが、これに限るものではなく、道路平面に平行で
あって、長方形を構成していれば、車両上の他の部位で
もかまわない。また、ステップST4の計算方法とし
て、例えば、「単眼による任意多角形の最適姿勢推定」
(電子情報通信学会総合大会、D―12―132、p
p.339、1997年)に記載されている方法を利用
すれば、計算時間がかかるものの、長方形に限定せず、
形状が既知である任意の多角形の端点を選択することも
できる。なお、計算誤差の観点から、特徴点は互いに離
れた部位を選択する方が望ましく、パネルトラックなど
の大型車から特徴点を抽出する方がよい。
In the first embodiment, the end points of the rectangular area of the vehicle upper surface are selected as the four characteristic points, but the present invention is not limited to this. The rectangular points are parallel to the road plane. If so, it may be another part on the vehicle. In addition, as the calculation method in step ST4, for example, “estimation of optimal posture of arbitrary polygon by monocular”
(The IEICE General Conference, D-12-132, p.
p. 339, 1997), the calculation time is longer, but it is not limited to a rectangle,
It is also possible to select the end points of any polygon of known shape. From the viewpoint of calculation error, it is desirable to select the feature points that are separated from each other, and it is better to extract the feature points from a large vehicle such as a panel truck.

【0029】実施の形態2.上記実施の形態1では、車
両の画像から道路平面と平行な車両上の平面の長方形領
域を探索し、その長方形領域の端点を特徴点として検出
するものについて示したが、撮像時刻が異なる2つの車
両の画像から相互に水平、かつ、進行方向に対して直角
に設置されている車両上の2つの部位を特徴点としてそ
れぞれ検出するようにしてもよい。以下、具体的に説明
するが、図5はこの発明の実施の形態2によるカメラの
キャリブレーション方法を示すフローチャートである。
Embodiment 2. In the above-described first embodiment, the rectangular area of the plane on the vehicle parallel to the road plane is searched from the image of the vehicle and the end points of the rectangular area are detected as the feature points. It is also possible to detect two parts on the vehicle, which are installed horizontally from each other and perpendicular to the traveling direction, as feature points from the image of the vehicle. Although specifically described below, FIG. 5 is a flowchart showing a camera calibration method according to the second embodiment of the present invention.

【0030】制御部3は、上記実施の形態1と同様にし
て、レーザ測距計2がカメラ1から道路平面までの距離
Lを計測すると、撮像開始指令をカメラ1に出力する。
カメラ1は、制御部3から撮像開始指令を受けると、図
6に示すように、監視エリアを走行する一般車両を連続
的に撮影し、その撮像結果である車両の連続画像を制御
部3に出力する(ステップST11)。即ち、撮像時刻
が異なる2枚の画像を制御部3に出力する。なお、制御
部3は、カメラ1から2枚の画像を受信すると、2枚の
画像を特徴点検出部4に出力する。
When the laser range finder 2 measures the distance L from the camera 1 to the road plane, the control section 3 outputs an image pickup start command to the camera 1 as in the first embodiment.
When the camera 1 receives an image capturing start command from the control unit 3, as shown in FIG. 6, the camera 1 continuously captures images of ordinary vehicles traveling in the monitoring area, and the control unit 3 receives continuous images of the vehicles as the image capturing results. Output (step ST11). That is, two images with different imaging times are output to the control unit 3. When the control unit 3 receives two images from the camera 1, the control unit 3 outputs the two images to the feature point detection unit 4.

【0031】特徴点検出部4は、制御部3から2枚の画
像を受けると、2枚の画像から車両上の特徴点をそれぞ
れ検出する(ステップST12)。具体的には、まず、
1枚目の画像から車両尾部に取り付けられている左右の
テールランプをそれぞれ特徴点として検出する。次に、
2枚目の画像から同一車両の尾部に取り付けられている
左右のテールランプをそれぞれ特徴点として検出する。
これにより、4つの特徴点が検出されたことになるが、
4つの特徴点は、図6に示すように、道路平面と平行な
平面の長方形領域を構成する。
When the characteristic point detection unit 4 receives the two images from the control unit 3, it detects the characteristic points on the vehicle from the two images (step ST12). Specifically, first,
The left and right tail lamps attached to the tail of the vehicle are detected as feature points from the first image. next,
Left and right tail lamps attached to the tail of the same vehicle are detected as feature points from the second image.
As a result, four feature points have been detected.
As shown in FIG. 6, the four feature points form a rectangular area of a plane parallel to the road plane.

【0032】以下、上記実施の形態1と同様であるため
説明を省略するが、この実施の形態2では、2枚の画像
から2個ずつ特徴点を検出するようにしているので、上
記実施の形態1のように、1枚の画像から4個の特徴点
を同時に検出する必要性がない。したがって、カメラ1
の設置位置が低く、車両の上面の領域が画像に写らない
場合などに有効である。また、一般的に特徴点を検出し
にくい夜間においても、少なくとも点灯しているテール
ランプだけは検出できるので、キャリブレーションを確
実に行うことができる。
The following description is omitted because it is similar to that of the first embodiment, but in the second embodiment, two feature points are detected from two images, so that the above-mentioned embodiment is performed. There is no need to simultaneously detect four feature points from one image as in the first embodiment. Therefore, camera 1
This is effective when the installation position is low and the upper surface area of the vehicle is not shown in the image. Further, even at night when it is generally difficult to detect feature points, at least only the tail lamps that are turned on can be detected, so that the calibration can be reliably performed.

【0033】この実施の形態2では、車両尾部に取り付
けられている左右のテールランプを特徴点として検出す
るものについて示したが、相互に水平に設置されている
車両上の2つの部位であればよく、例えば、車両頭部に
取り付けられている左右のヘッドライトを特徴点として
検出するようにしてもよい。
In the second embodiment, the left and right tail lamps attached to the tail of the vehicle are detected as the characteristic points, but it is sufficient if they are two parts on the vehicle that are installed horizontally with respect to each other. For example, the left and right headlights attached to the vehicle head may be detected as the characteristic points.

【0034】実施の形態3.上記実施の形態1,2で
は、1回だけ道路平面パラメータを算出するものについ
て示したが、図7に示すように、撮像対象の車両を変え
ながら道路平面パラメータの算出処理を繰り返し実行
し、その算出した複数の道路平面パラメータを平均化す
るようにしてもよい。
Embodiment 3. In the first and second embodiments, the road plane parameter is calculated only once. However, as shown in FIG. 7, the road plane parameter calculation process is repeatedly executed while changing the vehicle to be imaged. The calculated plurality of road plane parameters may be averaged.

【0035】即ち、道路平面パラメータの算出回数が予
め設定された回数に到達するまで、撮像対象の車両を変
えながら道路平面パラメータの算出処理を繰り返し実行
する(ステップST21)。そして、複数の算出処理に
より得られた道路平面パラメータを統計的に平滑化し
て、最終的な道路平面パラメータを決定する(ステップ
ST22)。これにより、道路平面パラメータの算出誤
差を統計的に小さくすることができるので、キャリブレ
ーション精度を高めることができる効果を奏する。
That is, until the number of times the road plane parameter is calculated reaches a preset number, the road plane parameter calculation process is repeatedly executed while changing the vehicle to be imaged (step ST21). Then, the road plane parameters obtained by the plurality of calculation processes are statistically smoothed to determine the final road plane parameters (step ST22). As a result, the calculation error of the road plane parameter can be statistically reduced, and the calibration accuracy can be improved.

【0036】この実施の形態3では、複数の算出処理に
より得られた道路平面パラメータを統計的に平滑化する
ものについて示したが、複数の算出処理により得られた
法線ベクトルを平滑化してから道路平面パラメータを算
出するようにしてもよい。
In the third embodiment, the road plane parameters obtained by a plurality of calculation processes are statistically smoothed. However, after smoothing the normal vector obtained by a plurality of calculation processes, The road plane parameter may be calculated.

【0037】実施の形態4.図8はこの発明の実施の形
態4によるカメラのアタッチメントを示す斜視図であ
り、図において、11はカメラ1の本体、12はカメラ
1のレンズマウント、13はカメラ1のレンズマウント
12に取り付けられる円筒状の筒(円筒部材)、14は
筒13の中心軸上に設置され、カメラ1から道路平面ま
での距離をカメラ1の光軸に沿って計測するレーザ測距
計(測距計)である。
Fourth Embodiment 8 is a perspective view showing an attachment of a camera according to Embodiment 4 of the present invention. In the figure, 11 is a main body of the camera 1, 12 is a lens mount of the camera 1, and 13 is attached to a lens mount 12 of the camera 1. A cylindrical cylinder (cylindrical member), 14 is a laser range finder (rangefinder) installed on the center axis of the cylinder 13 and measuring the distance from the camera 1 to the road plane along the optical axis of the camera 1. is there.

【0038】次に動作について説明する。カメラ1から
道路平面までの距離を計測する場合、中心軸上にレーザ
測距計14を内蔵している筒13をカメラ1のレンズマ
ウント12に取り付ける。このように筒13をカメラ1
のレンズマウント12に取り付けると、レーザ測距計1
4は、カメラ1の光軸と同軸上で距離Lを計測すること
になる。よって、測距ポイントPに対応する画像の座標
値が画像中央となるので、上記実施の形態1〜3のキャ
リブレーション方法を適用することができる。
Next, the operation will be described. When measuring the distance from the camera 1 to the road plane, the cylinder 13 having the laser range finder 14 built in on the central axis is attached to the lens mount 12 of the camera 1. In this way, the tube 13 is attached to the camera 1
Attached to the lens mount 12 of the laser rangefinder 1
4 measures the distance L coaxially with the optical axis of the camera 1. Therefore, since the coordinate value of the image corresponding to the distance measuring point P becomes the center of the image, the calibration methods of the above first to third embodiments can be applied.

【0039】また、アタッチメントとすることで、キャ
リブレーション用の測距計を監視カメラに組み込んで製
品化する必要もなく、既に設置されている監視カメラに
も対応することができる。その上、カメラ1のレンズマ
ウント12に取り付けるため、カメラ1とアタッチメン
トの位置関係は一意に決まり、予め工場等で筒13とレ
ーザ測距計14の配置を校正しておけば、キャリブレー
ション時の取り付け作業は容易であり、複数のカメラへ
の再利用が簡単になる。
Further, by using the attachment, it is not necessary to incorporate a range finder for calibration into the surveillance camera for commercialization, and it is possible to correspond to the surveillance camera already installed. Moreover, since the camera 1 and the attachment are attached to the lens mount 12, the positional relationship between the camera 1 and the attachment is uniquely determined. It is easy to install and can be easily reused for multiple cameras.

【0040】実施の形態5.図9はこの発明の実施の形
態5によるカメラのアタッチメントを示す斜視図であ
り、図において、図8と同一符号は同一または相当部分
を示すので説明を省略する。15はカメラ1のレンズマ
ウント12に取り付けられ、内部が空洞になっている円
筒状の筒(円筒部材)、16は筒15の内部に45度傾
けて設置されたハーフミラー、17は筒15の側面に設
置され、ハーフミラー16を介してカメラ1から道路平
面までの距離をカメラ1の光軸に沿って計測するレーザ
測距計(測距計)である。
Embodiment 5. 9 is a perspective view showing an attachment of a camera according to a fifth embodiment of the present invention. In the figure, the same reference numerals as those in FIG. 8 indicate the same or corresponding parts, and therefore the description thereof will be omitted. Reference numeral 15 denotes a cylindrical cylinder (cylindrical member) which is attached to the lens mount 12 of the camera 1 and has a hollow interior, 16 is a half mirror installed inside the cylinder 15 at an angle of 45 degrees, and 17 is a cylinder 15. A laser range finder (range finder) that is installed on the side surface and measures the distance from the camera 1 to the road plane via the half mirror 16 along the optical axis of the camera 1.

【0041】上記実施の形態4では、レーザ測距計14
を筒13の中心軸上に設置するものについて示したが、
レーザ測距計17を筒15の側面に設置し、筒15の内
部に45度傾けて設置されているハーフミラー16を介
して、レーザ測距計14が距離Lを計測するようにして
もよい。これにより、上記実施の形態4と同様に、カメ
ラ1の光軸と同軸上で距離Lを計測することができる。
また、この場合には、アタッチメントを取り付けた状態
で、カメラ1が車両の画像を撮像することができる。
In the fourth embodiment, the laser range finder 14 is used.
It was shown that the is installed on the central axis of the cylinder 13,
The laser range finder 17 may be installed on the side surface of the tube 15, and the laser range finder 14 may measure the distance L via the half mirror 16 installed inside the tube 15 at an angle of 45 degrees. . As a result, the distance L can be measured coaxially with the optical axis of the camera 1 as in the fourth embodiment.
Further, in this case, the camera 1 can capture an image of the vehicle with the attachment attached.

【0042】実施の形態6.図10はこの発明の実施の
形態6によるカメラのアタッチメントを示す斜視図であ
り、図において、21はカメラ1の視野中心とファイン
ダ22を通じて見える映像中心が一致するように、カメ
ラ1に取り付けられるレーザ測距計(測距計)、22は
レーザ測距計21の測距ポイントPを見定めるファイン
ダ、23は映像中心を示す照準マークである。
Sixth Embodiment FIG. 10 is a perspective view showing an attachment of a camera according to a sixth embodiment of the present invention. In the figure, reference numeral 21 denotes a laser attached to the camera 1 so that the center of the field of view of the camera 1 and the center of the image seen through the viewfinder 22 are aligned. A range finder (range finder), 22 is a finder for determining a range finder point P of the laser range finder 21, and 23 is an aiming mark indicating the center of the image.

【0043】この実施の形態6のアタッチメントは、図
10に示すように、レーザ測距計21とファインダ22
から構成され、カメラ1に取り付けることができる。フ
ァインダ22を通して見える映像中心には照準マーク2
3が重ねられており、この照準マーク23に重なる目標
物が測距ポイントPと一致するように予め校正する。カ
メラ1のキャリブレーション時には、カメラ1の視野中
心と、ファインダ22を通して見える映像中心が一致す
るようにして、このアタッチメントをカメラ1の傍らに
取り付ける。なお、取り付け方法については特に問わな
い。
As shown in FIG. 10, the attachment of the sixth embodiment has a laser range finder 21 and a finder 22.
It can be attached to the camera 1. Aiming mark 2 is in the center of the image seen through the viewfinder 22.
3 is overlapped, and calibration is performed in advance so that the target object that overlaps this aiming mark 23 matches the distance measuring point P. When the camera 1 is calibrated, this attachment is attached beside the camera 1 such that the center of the field of view of the camera 1 and the center of the image viewed through the finder 22 coincide with each other. The method of attachment is not particularly limited.

【0044】これにより、レーザ測距計21は、カメラ
1の光軸とほぼ同軸上で距離Lを計測することになるた
め、上記実施の形態1〜3のキャリブレーション方法を
適用することができる。また、アタッチメントとするこ
とで、キャリブレーション用の測距計を監視カメラに組
み込んで製品化する必要もなく、既に設置されている監
視カメラにも対応することができる。その上、レーザ測
距計21がファインダ22の中心に見える目標物までの
距離を計測するように予め校正しているので、キャリブ
レーション時の取り付け作業は容易であり、複数のカメ
ラへの再利用が簡単になる。
As a result, the laser range finder 21 measures the distance L substantially coaxially with the optical axis of the camera 1, so that the calibration methods of the above-described first to third embodiments can be applied. . Further, by using the attachment, it is not necessary to incorporate a range finder for calibration into the surveillance camera for commercialization, and it is possible to correspond to the surveillance camera already installed. In addition, since the laser range finder 21 is calibrated in advance so as to measure the distance to the target object that can be seen in the center of the finder 22, the mounting work during calibration is easy and it can be reused for multiple cameras. Will be easier.

【0045】[0045]

【発明の効果】以上のように、この発明によれば、カメ
ラの光軸に沿って計測したカメラから道路平面までの距
離と、複数の特徴点の座標値とから道路平面パラメータ
を算出するように構成したので、道路上へのマーカの設
置や交通規制を実施することなく、監視カメラのキャリ
ブレーションを実施することができる効果がある。
As described above, according to the present invention, the road plane parameter is calculated from the distance from the camera to the road plane measured along the optical axis of the camera and the coordinate values of a plurality of feature points. Since it is configured as described above, there is an effect that the surveillance camera can be calibrated without setting a marker on the road or implementing traffic regulation.

【0046】この発明によれば、車両の画像から道路平
面と平行な車両上の平面の長方形領域を探索し、その長
方形領域の端点を特徴点として検出するように構成した
ので、複雑な形状を用いるよりも計算の簡単化を図るこ
とができる効果がある。
According to the present invention, since the rectangular area of the plane on the vehicle parallel to the road plane is searched from the image of the vehicle and the end points of the rectangular area are detected as the characteristic points, a complicated shape is formed. This has the effect of simplifying the calculation rather than using it.

【0047】この発明によれば、撮像時刻が異なる2つ
の車両の画像から相互に水平に設置されている車両上の
2つの部位を特徴点としてそれぞれ検出するように構成
したので、構成の複雑化を招くことなく、車両上の特徴
点を検出することができる効果がある。
According to the present invention, two parts on the vehicle which are horizontally installed mutually are detected as the feature points from the images of the two vehicles whose image capturing times are different from each other. Therefore, the structure is complicated. There is an effect that the characteristic point on the vehicle can be detected without inviting.

【0048】この発明によれば、左右のテールランプ、
または、左右のヘッドライトを特徴点として検出するよ
うに構成したので、一般的に特徴点を検出しにくい夜間
においても、確実に特徴点を検出することができる効果
がある。
According to the present invention, the left and right tail lamps,
Alternatively, since the left and right headlights are configured to be detected as feature points, there is an effect that feature points can be reliably detected even at night when it is generally difficult to detect feature points.

【0049】この発明によれば、撮像対象の車両を変え
ながら道路平面パラメータの算出処理を繰り返し実行
し、その算出した複数の道路平面パラメータを平均化す
るように構成したので、キャリブレーション精度を高め
ることができる効果がある。
According to the present invention, the calculation processing of the road plane parameters is repeatedly executed while changing the vehicle to be imaged, and the calculated plurality of road plane parameters are averaged, so that the calibration accuracy is improved. There is an effect that can be.

【0050】この発明によれば、カメラのレンズマウン
トに円筒部材を取り付けるとともに、その円筒部材の中
心軸上にカメラから道路平面までの距離をカメラの光軸
に沿って計測する測距計を設置するように構成したの
で、キャリブレーション用の測距計を監視カメラに組み
込んで製品化することなく、カメラから道路平面までの
距離をカメラの光軸に沿って計測することができる効果
がある。
According to the present invention, the cylindrical member is attached to the lens mount of the camera, and the range finder for measuring the distance from the camera to the road plane along the optical axis of the camera is installed on the central axis of the cylindrical member. With this configuration, the distance from the camera to the road plane can be measured along the optical axis of the camera without incorporating the rangefinder for calibration into the surveillance camera for commercialization.

【0051】この発明によれば、円筒部材の内部に設置
されたハーフミラーを介して、測距計がカメラから道路
平面までの距離をカメラの光軸に沿って計測するように
構成したので、キャリブレーション用の測距計を監視カ
メラに組み込んで製品化することなく、カメラから道路
平面までの距離をカメラの光軸に沿って計測することが
できる効果がある。また、アタッチメントを取り付けた
状態で、カメラが車両の画像を撮像することができる効
果がある。
According to the present invention, since the range finder measures the distance from the camera to the road plane along the optical axis of the camera through the half mirror installed inside the cylindrical member, There is an effect that the distance from the camera to the road plane can be measured along the optical axis of the camera without incorporating a rangefinder for calibration into a surveillance camera for commercialization. Further, there is an effect that the camera can capture an image of the vehicle with the attachment attached.

【0052】この発明によれば、カメラの視野中心とフ
ァインダを通じて見える映像中心が一致するように、測
距計をカメラに取り付ける構成にしたので、キャリブレ
ーション用の測距計を監視カメラに組み込んで製品化す
ることなく、カメラから道路平面までの距離をカメラの
光軸に沿って計測することができる効果がある。
According to the present invention, since the range finder is attached to the camera so that the center of the field of view of the camera and the center of the image viewed through the finder coincide, the range finder for calibration is incorporated in the surveillance camera. There is an effect that the distance from the camera to the road plane can be measured along the optical axis of the camera without commercialization.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の実施の形態1によるカメラのキャ
リブレーション方法を適用するキャリブレーション装置
を示す構成図である。
FIG. 1 is a configuration diagram showing a calibration device to which a camera calibration method according to a first embodiment of the present invention is applied.

【図2】 カメラと道路平面の関係を示す説明図であ
る。
FIG. 2 is an explanatory diagram showing a relationship between a camera and a road plane.

【図3】 この発明の実施の形態1によるカメラのキャ
リブレーション方法を示すフローチャートである。
FIG. 3 is a flowchart showing a camera calibration method according to the first embodiment of the present invention.

【図4】 車両の画像を示す説明図である。FIG. 4 is an explanatory diagram showing an image of a vehicle.

【図5】 この発明の実施の形態2によるカメラのキャ
リブレーション方法を示すフローチャートである。
FIG. 5 is a flowchart showing a camera calibration method according to a second embodiment of the present invention.

【図6】 車両の画像を示す説明図である。FIG. 6 is an explanatory diagram showing an image of a vehicle.

【図7】 この発明の実施の形態3によるカメラのキャ
リブレーション方法を示すフローチャートである。
FIG. 7 is a flowchart showing a camera calibration method according to a third embodiment of the present invention.

【図8】 この発明の実施の形態4によるカメラのアタ
ッチメントを示す斜視図である。
FIG. 8 is a perspective view showing an attachment of a camera according to Embodiment 4 of the present invention.

【図9】 この発明の実施の形態5によるカメラのアタ
ッチメントを示す斜視図である。
FIG. 9 is a perspective view showing an attachment of a camera according to Embodiment 5 of the present invention.

【図10】 この発明の実施の形態6によるカメラのア
タッチメントを示す斜視図である。
FIG. 10 is a perspective view showing an attachment of a camera according to Embodiment 6 of the present invention.

【図11】 カメラと道路平面の関係を示す説明図であ
る。
FIG. 11 is an explanatory diagram showing a relationship between a camera and a road plane.

【符号の説明】[Explanation of symbols]

1 カメラ、2 レーザ測距計(測距計)、3 制御
部、4 特徴点検出部、5 法線ベクトル算出部、6
パラメータ算出部、11 カメラの本体、12レンズマ
ウント、13 筒(円筒部材)、14 レーザ測距計
(測距計)、15筒(円筒部材)、16 ハーフミラ
ー、17 レーザ測距計(測距計)、21レーザ測距計
(測距計)、22 ファインダ、23 照準マーク。
1 camera, 2 laser range finder (rangefinder), 3 control section, 4 feature point detection section, 5 normal vector calculation section, 6
Parameter calculation unit, 11 camera body, 12 lens mount, 13 tube (cylindrical member), 14 laser range finder (rangefinder), 15 tube (cylindrical member), 16 half mirror, 17 laser range finder (rangefinder) 21) Laser rangefinder (rangefinder), 22 finder, 23 sighting mark.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鷲見 和彦 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 Fターム(参考) 5B057 AA16 CA12 CH01 5C022 AA04 AB62 AC27 AC78 5C054 AA01 CA04 CE11 CE15 CF06 CH01 EA01 EA05 ED07 FC03 FC15 GB11 HA30 5H180 AA01 CC03 CC04 DD01    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kazuhiko Sumi             2-3 2-3 Marunouchi, Chiyoda-ku, Tokyo             Inside Ryo Electric Co., Ltd. F term (reference) 5B057 AA16 CA12 CH01                 5C022 AA04 AB62 AC27 AC78                 5C054 AA01 CA04 CE11 CE15 CF06                       CH01 EA01 EA05 ED07 FC03                       FC15 GB11 HA30                 5H180 AA01 CC03 CC04 DD01

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 カメラから道路平面までの距離を上記カ
メラの光軸に沿って計測する一方、上記カメラにより撮
像された車両の画像から車両上の複数の特徴点を検出
し、上記カメラから道路平面までの距離と上記複数の特
徴点の座標値から道路平面パラメータを算出するカメラ
のキャリブレーション方法。
1. A method of measuring a distance from a camera to a road plane along an optical axis of the camera, detecting a plurality of feature points on the vehicle from an image of the vehicle captured by the camera, A camera calibration method for calculating a road plane parameter from a distance to a plane and coordinate values of the plurality of feature points.
【請求項2】 車両の画像から道路平面と平行な車両上
の平面の長方形領域を探索し、その長方形領域の端点を
特徴点として検出することを特徴とする請求項1記載の
カメラのキャリブレーション方法。
2. The calibration of the camera according to claim 1, wherein a rectangular area of a plane on the vehicle parallel to the road plane is searched from the image of the vehicle, and an end point of the rectangular area is detected as a feature point. Method.
【請求項3】 撮像時刻が異なる2つの車両の画像から
相互に水平に設置されている車両上の2つの部位を特徴
点としてそれぞれ検出することを特徴とする請求項1記
載のカメラのキャリブレーション方法。
3. The calibration of the camera according to claim 1, wherein two parts on the vehicle which are installed horizontally are mutually detected as feature points from images of two vehicles having different imaging times. Method.
【請求項4】 左右のテールランプ、または、左右のヘ
ッドライトを特徴点として検出することを特徴とする請
求項3記載のカメラのキャリブレーション方法。
4. The camera calibration method according to claim 3, wherein the left and right tail lamps or the left and right headlights are detected as feature points.
【請求項5】 撮像対象の車両を変えながら道路平面パ
ラメータの算出処理を繰り返し実行し、その算出した複
数の道路平面パラメータを平均化することを特徴とする
請求項1から請求項4のうちのいずれか1項記載のカメ
ラのキャリブレーション方法。
5. The road plane parameter calculation process is repeatedly executed while changing the vehicle to be imaged, and the calculated plurality of road plane parameters are averaged. The method for calibrating a camera according to claim 1.
【請求項6】 カメラのレンズマウントに取り付けられ
る円筒部材と、上記円筒部材の中心軸上に設置され、上
記カメラから道路平面までの距離を上記カメラの光軸に
沿って計測する測距計とを備えたカメラのアタッチメン
ト。
6. A cylindrical member mounted on a lens mount of a camera, and a range finder installed on a central axis of the cylindrical member and measuring a distance from the camera to a road plane along an optical axis of the camera. Camera attachment with.
【請求項7】 カメラのレンズマウントに取り付けられ
る円筒部材と、上記円筒部材の内部に設置されたハーフ
ミラーと、上記ハーフミラーを介して上記カメラから道
路平面までの距離を上記カメラの光軸に沿って計測する
測距計とを備えたカメラのアタッチメント。
7. A cylindrical member attached to a lens mount of a camera, a half mirror installed inside the cylindrical member, and a distance from the camera to a road plane through the half mirror is set to an optical axis of the camera. A camera attachment with a range finder that measures along.
【請求項8】 カメラから道路平面までの距離を計測す
る測距計と、上記測距計の測距ポイントを見定めるファ
インダとを備えたカメラのアタッチメントにおいて、上
記カメラの視野中心と上記ファインダを通じて見える映
像中心が一致するように、上記測距計を上記カメラに取
り付けることを特徴とするカメラのアタッチメント。
8. An attachment of a camera equipped with a range finder for measuring a distance from a camera to a road plane and a finder for determining a range finder point of the range finder, which is visible through the view center of the camera and the finder. An attachment for a camera, characterized in that the range finder is attached to the camera so that the centers of images coincide with each other.
JP2002059089A 2002-03-05 2002-03-05 Calibration method for camera and attachment of camera Pending JP2003259357A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002059089A JP2003259357A (en) 2002-03-05 2002-03-05 Calibration method for camera and attachment of camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002059089A JP2003259357A (en) 2002-03-05 2002-03-05 Calibration method for camera and attachment of camera

Publications (1)

Publication Number Publication Date
JP2003259357A true JP2003259357A (en) 2003-09-12

Family

ID=28668887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002059089A Pending JP2003259357A (en) 2002-03-05 2002-03-05 Calibration method for camera and attachment of camera

Country Status (1)

Country Link
JP (1) JP2003259357A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006090826A (en) * 2004-09-24 2006-04-06 Hitachi Ltd Display method for confirmation screen and adjustment screen for installation information of radar
CN1323547C (en) * 2003-10-22 2007-06-27 西安交通大学 Three-line calibration method for external parmeters of camera carried by car
JP2008003000A (en) * 2006-06-23 2008-01-10 Mitsutoyo Corp Method of calibrating image measuring device
JP2008269139A (en) * 2007-04-18 2008-11-06 Sanyo Electric Co Ltd Drive support system and vehicle
JP2009092470A (en) * 2007-10-05 2009-04-30 Sumitomo Electric Ind Ltd Optical beacon, and method of setting uplink area in optical beacon
US7822571B2 (en) 2008-02-28 2010-10-26 Aisin Seiki Kabushiki Kaisha Calibration device and calibration method for range image sensor
US20130208121A1 (en) * 2012-02-10 2013-08-15 Xerox Corporation Traffic camera diagnostics via test targets
JP2014217052A (en) * 2013-04-23 2014-11-17 ゼロックス コーポレイションXerox Corporation Traffic camera calibration update utilizing scene analysis
KR101549165B1 (en) 2014-08-25 2015-09-14 경북대학교 산학협력단 Apparatus and method for estimating pose of vehicle
CN106443650A (en) * 2016-09-12 2017-02-22 电子科技大学成都研究院 Monocular vision range finding method based on geometric relation
JPWO2021130824A1 (en) * 2019-12-23 2021-07-01

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1323547C (en) * 2003-10-22 2007-06-27 西安交通大学 Three-line calibration method for external parmeters of camera carried by car
JP2006090826A (en) * 2004-09-24 2006-04-06 Hitachi Ltd Display method for confirmation screen and adjustment screen for installation information of radar
JP2008003000A (en) * 2006-06-23 2008-01-10 Mitsutoyo Corp Method of calibrating image measuring device
JP2008269139A (en) * 2007-04-18 2008-11-06 Sanyo Electric Co Ltd Drive support system and vehicle
JP2009092470A (en) * 2007-10-05 2009-04-30 Sumitomo Electric Ind Ltd Optical beacon, and method of setting uplink area in optical beacon
US7822571B2 (en) 2008-02-28 2010-10-26 Aisin Seiki Kabushiki Kaisha Calibration device and calibration method for range image sensor
US20130208121A1 (en) * 2012-02-10 2013-08-15 Xerox Corporation Traffic camera diagnostics via test targets
JP2014217052A (en) * 2013-04-23 2014-11-17 ゼロックス コーポレイションXerox Corporation Traffic camera calibration update utilizing scene analysis
KR101549165B1 (en) 2014-08-25 2015-09-14 경북대학교 산학협력단 Apparatus and method for estimating pose of vehicle
CN106443650A (en) * 2016-09-12 2017-02-22 电子科技大学成都研究院 Monocular vision range finding method based on geometric relation
JPWO2021130824A1 (en) * 2019-12-23 2021-07-01
JP7170912B2 (en) 2019-12-23 2022-11-14 三菱電機株式会社 Obstacle detection device and obstacle detection method

Similar Documents

Publication Publication Date Title
JP3436074B2 (en) Car stereo camera
CN108692719B (en) Object detection device
US8384781B2 (en) Stereo camera device
CN106289159B (en) Vehicle distance measurement method and device based on distance measurement compensation
US20080181591A1 (en) Camera posture estimation device, vehicle, and camera posture estimation method
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
JP2000241440A (en) Speed measuring method for automobile and its device
JP3617709B2 (en) Distance measuring device
CN111707668A (en) Tunnel detection and image processing method based on sequence image
JP2003259357A (en) Calibration method for camera and attachment of camera
JPH09226490A (en) Detector for crossing object
TW201443827A (en) Camera image calibrating system and method of calibrating camera image
CN115511974A (en) Rapid external reference calibration method for vehicle-mounted binocular camera
JP2000293693A (en) Obstacle detecting method and device
JP3897984B2 (en) Surveillance camera calibration method and road surveillance camera
JPH10332334A (en) Position measuring method by image processing and its device
JP2002099902A (en) Image processing device for measuring three-dimensional information of object through binocular stereoscopic vision, its method, and storage medium with measurement program stored therein
JPH0948298A (en) Object position measuring method in running passage
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
WO2022118513A1 (en) Position/orientation calculation device, position/orientation calculation method, and surveying device
JP3994954B2 (en) Object detection apparatus and object detection method
JPH10312463A (en) Recognizing method for object and its device
KR20100007444A (en) Monitoring method
JP2003090711A (en) Three-dimensional image imaging device and method therefor
JP2007017246A (en) Distance measuring system